هوش مصنوعی در بسیاری از زمینههای زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانیهای زیادی را برانگیخته است.
دادگاهها برای ارائه پروندههای مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف میکند. مدلهای هوش مصنوعی بر اساس مجموعه دادههای بزرگ آموزش داده میشوند و قوانین جعلی میسازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.
اگرچه محتوای تولید شده توسط هوش مصنوعی شاید قانعکننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی میتواند نادرست باشد. این زمانی است که مدل هوش مصنوعی تلاش میکند تا شکافهای دادههای آموزشی خود را پر کند و در نتیجه محتوای نادرست تولید میکند که در نتیجه میتواند در اختلافات حقوقی دردسرساز باشد و به تصمیمات قانونی نادرست بیانجامد.
جنجالهای حقوقی هوش مصنوعی
شناختهشدهترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال ۲۰۲۳ برمیگردد که در آن وکلا خلاصهای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویارک ارسال کردند. این خلاصه با استفاده از چت جیپیتی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرمافزار میتواند توهم بزند نتوانستند آنرا راستیآزمایی کنند. عواقب این بررسی فاجعهبار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقیشان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.
نمونههای مشهور
با وجود چنین اتفاقات نامطلوبی، نمونههای دیگری همچنان اتفاق میافتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پروندههای وکالت خود را با استفاده از نرمافزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم میکرد ولی ادعا میکرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجالآفرینی کرده است.
چنانچه این روند کنترل نشود، استفاده بیمحابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف میکند. قصور مداوم وکلا در استفاده از این ابزارها میتواند باعث گمراهی و ازدحام در دادگاهها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.
ما تصاویری از افراد مشهور را دیدهایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپفیک) ساخته شدهاند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیلهای مسابقهای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تأثیر قوی بر سیستمهای حقوقی ما دارد.
دادگاهها در پروندههای دعوی که وکلا آنها را پیگیری میکنند باید بر اساس اطلاعاتی که وکیل ارائه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگرانکننده خواهد بود که نه تنها مسائل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستمهای حقوقی جهان است.
قوانین جعلی چگونه به وجود میآیند؟
شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبههای سیستم حقوقی است. اما استفاده از آن با مسئولیتها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفهای آموزش دیدهاند و عموماً ریسکپذیر نیستند. با این حال، برخی از وکلای بیاحتیاط گرفتار خطاهای هوش مصنوعی شدهاند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایندها قانونی راه پیدا کند، مشکلساز میشود، بهویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبرهایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.