۰

صدای پای هوش مصنوعی در دادگاه‌ها

چهارشنبه ۸ حمل ۱۴۰۳ ساعت ۱۴:۲۴
Credit: Getty
Credit: Getty
هوش مصنوعی در بسیاری از زمینه‌های زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانی‌های زیادی را برانگیخته است.
دادگاه‌ها برای ارائه پرونده‌های مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف می‌کند. مدل‌های هوش مصنوعی بر اساس مجموعه داده‌های بزرگ آموزش داده می‌شوند و قوانین جعلی می‌سازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.
اگرچه محتوای تولید شده توسط هوش مصنوعی شاید قانع‌کننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی می‌تواند نادرست باشد. این زمانی است که مدل هوش مصنوعی تلاش می‌کند تا شکاف‌های داده‌های آموزشی خود را پر کند و در نتیجه محتوای نادرست تولید می‌کند که در نتیجه می‌تواند در اختلافات حقوقی دردسرساز باشد و به تصمیمات قانونی نادرست بیانجامد.
جنجال‌های حقوقی هوش مصنوعی
شناخته‌شده‌ترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال ۲۰۲۳ برمی‌گردد که در آن وکلا خلاصه‌ای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویارک ارسال کردند. این خلاصه با استفاده از چت جی‌پی‌تی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرم‌افزار می‌تواند توهم بزند نتوانستند آن‌را راستی‌آزمایی کنند. عواقب این بررسی فاجعه‌بار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقی‌شان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.
نمونه‌های مشهور
با وجود چنین اتفاقات نامطلوبی، نمونه‌های دیگری همچنان اتفاق می‌افتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پرونده‌های وکالت خود را با استفاده از نرم‌افزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم می‌کرد ولی ادعا می‌کرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجال‌آفرینی کرده است.
چنانچه این روند کنترل نشود، استفاده بی‌محابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف می‌کند. قصور مداوم وکلا در استفاده از این ابزار‌ها می‌تواند باعث گمراهی و ازدحام در دادگاه‌ها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.
ما تصاویری از افراد مشهور را دیده‌ایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپ‌فیک) ساخته شده‌اند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیل‌های مسابقه‌ای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تأثیر قوی بر سیستم‌های حقوقی ما دارد.
دادگاه‌ها در پرونده‌های دعوی که وکلا آنها را پیگیری می‌کنند باید بر اساس اطلاعاتی که وکیل ارائه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگران‌کننده خواهد بود که نه تنها مسائل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستم‌های حقوقی جهان است.
قوانین جعلی چگونه به وجود می‌آیند؟
شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبه‌های سیستم حقوقی است. اما استفاده از آن با مسئولیت‌ها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفه‌ای آموزش دیده‌اند و عموماً ریسک‌پذیر نیستند. با این حال، برخی از وکلای بی‌احتیاط گرفتار خطا‌های هوش مصنوعی شده‌اند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایند‌ها قانونی راه پیدا کند، مشکلساز می‌شود، به‌ویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبر‌هایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.
 
نام شما

آدرس ايميل شما
نظر شما *

پربازدیدترین