۰

هشدار انجینیر مایکروسافت درباره قابلیت های خطرناک Copilot Designer

پنجشنبه ۱۷ حوت ۱۴۰۲ ساعت ۱۳:۳۹
GIGAZINE
GIGAZINE
هوش مصنوعی مایکروسافت به نام Copilot Designer می‌تواند تصاویر نامناسب و خشونت‌آمیز بسازد؛ ازاین‌رو، انجینیر مایکروسافت پیشنهاد می‌کند آن را از دسترس خارج کنید.
یکی از انجینیرهای مایکروسافت به نام شین جونز در ماه جنوری، نامه‌هایی به دادستان کل ایالت واشنگتن، باب فرگوسن و تعدادی از سناتورها و نمایندگان مجلس ایالات متحده ارسال کرد. جونز مدعی بود که مشکلاتی در حفاظت‌های هوش مصنوعی مایکروسافت به نام Copilot Designer یافته است؛ ابزاری که قبلاً با نام Bing Image Creator شناخته می‌شد.
امروز، جونز افشاگری جدیدی مطرح کرده و گفته است که می‌توان از Copilot Designer برای ایجاد تصاویر خشونت‌آمیز و نامناسب با چند عبارت متنی که طبق قوانین مایکروسافت مجاز نیستند، استفاده کرد.
طبق گزارش CNBC، جونز نامه‌های جدیدی به لینا خان، رئیس کمیسیون تجارت فدرال ایالات متحده و نیز هیئت‌مدیره مایکروسافت ارسال کرده است. وی در نامه‌ای که به خان ارسال کرده، مدعی شده است که از چند ماه پیش از مایکروسافت خواسته است تا زمانی که حفاظت‌های جدید و بهتری برای کوپایلت دیزاینر ایجاد شود، آن را از دسترس عموم خارج کند.
جونز می‌گوید که مایکروسافت از حذف کوپایلت دیزاینر برای عموم خودداری کرده است؛ بنابراین، او از این شرکت خواسته است تا اطلاعات شفاف‌تری درباره قابلیت‌های این ابزار هوش مصنوعی منتشر کند و رتبه‌بندی این برنامه در اندروید را از «E» (مناسب برای همه) به رتبه‌بندی دیگری تغییر دهد.

جونز می‌گوید که عبارت Pro-choice (طرفدار حق انتخاب) را در Copilot Designer تایپ و این برنامه تعدادی تصویر کارتونی خشونت‌آمیز ایجاد کرده است؛ ازجمله دیوی با دندان‌های تیز که در حال خوردن نوزاد است و دارث ویدر با شمشیر نوری در‌کنار نوزادان جهش‌یافته و دستگاهی مته‌مانند دستی با برچسب Pro-choice که روی نوزاد کامل استفاده می‌شود.
جونز همچنین مدعی است که می‌توان از Copilot Designer برای ایجاد تصاویر شخصیت‌های دارای حق‌ کپی‌رایت از دیزنی استفاده کرد. این مقاله تصاویری مانند «قوطی‌های Bud Light با برند Star Wars» و «شباهت سفیدبرفی روی یک ویپ» را نشان می‌دهد.
سخن‌گوی مایکروسافت در بیانیه‌ای به CNBC گفت که این شرکت از تلاش‌های کارمندان خود برای آزمایش فناوری‌ها و خدماتش برای کمک به ایمن‌ترکردن آن‌ها قدردانی می‌کند. این سخن‌گو اضافه کرد:
هنگامی‌که از دور‌زدن حفاظت‌ها یا نگرانی‌هایی صحبت می‌شود که می‌تواند قابلیت‌ تأثیرگذاری بر خدمات یا شرکای ما را داشته باشد، کانال‌های گزارش‌دهی داخلی قوی را برای بررسی و رفع هرگونه مشکلی ایجاد کرده‌ایم و از کارمندان خود می‌خواهیم از آ‌ن‌ها استفاده کنند تا بتوانیم نگرانی‌هایشان را به‌درستی تأیید و بررسی کنیم.
در ماه فبروری، گوگل هوش مصنوعی مولد تصویر جمنای را پس از آن تعطیل کرد که فهمید می‌توان از این ابزار برای ایجاد تصاویر توهین‌آمیز نژادی استفاده کرد. این شرکت می‌گوید که در حال ایجاد حفاظت‌های جدیدی است تا هنگامی‌که این قابلیت دوباره فعال شود، از ایجاد تصاویر مشابه جلوگیری کند.
تحقیقات جدید مرکز مقابله با نفرت دیجیتل نشان داده است که هوش مصنوعی‌های مولد تصویر، از‌جمله هوش مصنوعی مایکروسافت، می‌توانند به‌راحتی به‌منظور ایجاد تصاویری استفاده شوند که برای انتشار اطلاعات نادرست درباره انتخابات و نامزدها طراحی شده‌اند.
درنهایت، افشاگری‌های شین جونز نشان می‌دهد که هوش مصنوعی مایکروسافت با وجود حفاظت‌ها، هنوز‌هم می‌تواند برای ایجاد محتوای نامناسب و مضر استفاده شود. این موضوع نگرانی‌هایی درباره امکان سوء‌استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست و نفرت‌پراکنی ایجاد می‌کند. شرکت‌های فناوری برای ایمن‌تر‌کردن هوش مصنوعی و جلوگیری از سوء‌استفاده از آن، باید اقدامات بیشتری انجام دهند.
 
نام شما

آدرس ايميل شما
نظر شما *

پربازدیدترین