دیده بان پیشرفت علم، فناوری و نوآوری
درخواست متخصصان؛

جعل عمیق «پدرخوانده هوش مصنوعی» است/ مقررات تشدید شود

جعل عمیق «پدرخوانده هوش مصنوعی» است  مقررات تشدید شود
کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامه‌ای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق (دیپ فیک) شدند.
کد خبر : 897956

به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامه‌ای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق (دیپ فیک) شده و خطرات احتمالی آن را در این نامه متذکر شده‌اند.

این گروه از کارشناسان با همراهی اندرو کریچ (Andrew Critch)، متخصص هوش مصنوعی از دانشگاه برکلی در نامه سرگشاده خود نوشتند: «امروزه، در جعل عمیق اغلب از تصاویر جنسی، تقلبی یا اطلاعات نادرست سیاسی استفاده می‌شود و چون هوش مصنوعی به‌سرعت در حال پیشرفت است ساخت جعل عمیق را بسیار آسان‌تر می‌کند.»

در این نامه با عنوان «زنجیره تأمین جعل عمیق را بر هم بزنید»، توصیه‌هایی در مورد شیوه قانون‌گذاری برای جعل عمیق ارائه شده است، از جمله جرم‌انگاری تمام و کمال برای پورنوگرافی کودکانه با جعل عمیق و مجازات کیفری برای هر فردی که آگاهانه به ایجاد، تسهیل و گسترش محتوا‌های مخرب جعل عمیق کمک کند که شرکت‌های هوش مصنوعی را نیز شامل می‌شود. استیون پینکر، استاد روانشناسی هاروارد، جوی بولاموینی، بنیان‌گذار لیگ عدالت الگوریتمی، دو رئیس‌جمهور سابق استونی و محققان گوگل در بخش‌های دیپ‌مایند و یک محقق از اُپن‌ای‌آی از جمله امضاکنندگان این نامه هستند. تا لحظه انتشار این خبر، بیش از ۴۰۰ نفر در صنایع مختلف و حوزه‌های سرگرمی، سیاست و دانشگاه نامه را امضا کرده بودند.

تاکنون هشدار‌های متعددی از سوی افراد برجسته درباره خطرات هوش مصنوعی مطرح شده است، به‌ویژه، نامه‌ای که سال گذشته ایلان ماسک امضا کرد و توقف شش‌ماهه توسعه سیستم‌های قدرتمندتر از مدل جی‌پی‌تی ۴ اپن‌ای آی را خواستار شد.

محتوای جعل عمیق شامل تصاویر، صدا‌ها و ویدئو‌های واقعی و در عین حال ساختگی‌ای هستند که توسط الگوریتم‌های هوش مصنوعی ایجاد می‌شوند و پیشرفت‌های اخیر در این فناوری باعث شده است که تشخیص آن‌ها از موارد واقعی روزبه‌روز سخت‌تر شود.

ارسال نظر
هلدینگ شایسته