دیده بان پیشرفت علم، فناوری و نوآوری

هوش مصنوعی غیرقابل‌کنترل واقعیت ندارد

هوش مصنوعی غیرقابل‌کنترل واقعیت ندارد
خطرات وجودی هوش مصنوعی بیش از حد مورد توجه کارشناسان قرار گرفته است به‌طوری‌که این سیستم می‌تواند یک وظیفه را در سطح انسان یا بالاتر از او انجام دهد و یا حتی می‌تواند از کنترل ما فرار کند.
کد خبر : 869636

به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، برای برخی از کارشناسان، توسعه هوش مصنوعی اتفاقی است که دیر یا زود رخ می دهد. از همین رو اجلاس جهانی ایمنی هوش مصنوعی قرار است در ماه نوامبر در «بلچلی پارک» برگزار شود.

یان هوگارت، رئیس نیروی کار بریتانیا که مسئول بررسی امنیت هوش مصنوعی پیشرفته است، گفت: نگرانی‌هایی را در مورد هوش عمومی مصنوعی یا هوش مصنوعی «خداگونه» مطرح کرد. تعاریف متفاوت است اما به‌طور گسترده به یک سیستم هوش مصنوعی اشاره دارد که می‌تواند یک وظیفه را در سطح یک انسان یا بالاتر از انسان انجام دهد و می‌تواند از کنترل ما فرار کند.

مکس تگمارک دانشمندی که امسال در پشت یک نامه جنجالی خواستار توقف آزمایش‌های بزرگ هوش مصنوعی شد، به گاردین گفت: متخصصان فناوری در کالیفرنیا بر این باورند که «هوش مصنوعی عمومی» (AGI) نزدیک است. بسیاری از مردم اینجا فکر می‌کنند که ما تا دو، سه سال دیگر به هوش مصنوعی عمومی خواهیم رسید. 

از طرف دیگر برخی بر این باورند هیاهوی هوش مصنوعی بیش‌ازحد است. براساس یکی از این استدلال‌های ضدونقیض، این یک اقدام بدبینانه برای تنظیم و حصار کشیدن در بازار و تحکیم جایگاه بازیگران بزرگی مانند اوپن ای‌آی توسعه‌دهنده چت جی‌پی‌تی گوگل و مایکروسافت است.

مؤسسه تحقیقات هوش مصنوعی توزیع‌شده هشدار داده است که تمرکز بر ریسک وجودی تأثیرات فوری سیستم‌های هوش مصنوعی مانند: استفاده از کار هنرمندان و نویسندگان بدون اجازه به‌منظور ساخت مدل‌های هوش مصنوعی و استفاده از کارگران کم‌درآمد برای انجام برخی از وظایف ساخت مدل را نادیده می‌گیرد. 

دیدگاه دیگر این است که هوش مصنوعی عمومی غیرقابل‌کنترل به‌سادگی اتفاق نخواهد افتاد. ویلیام دالی، دانشمند ارشد شرکت سازنده هوش مصنوعی انویدیا، در جلسه استماع هفته گذشته مجلس سنای آمریکا گفت: هوش مصنوعی عمومی غیرقابل‌کنترل، علمی تخیلی است و واقعیت ندارد.

بااین‌حال، برای کسانی که مخالف هستند تهدید ایجادشده توسط هوش مصنوعی عمومی را نمی‌توان نادیده گرفت. ترس در مورد چنین سیستم‌هایی شامل رد کردن و فرار کردن، ترکیب شدن باهوش مصنوعی‌های دیگر یا توانایی بهبود خودکار خود است.

کانرلی، مدیر اجرایی شرکت تحقیقاتی ایمنی هوش مصنوعی گفت: مشکل از این ساده‌تر است مسئله عمیق در مورد هوش مصنوعی عمومی جنبه‌ای خاص و خطرناک آن است که  باید در نظر بگیرید. او گفت: اگر نتوانیم هوش مصنوعی مناسب و در سطح انسانی را کنترل کنیم خطرناک خواهد بود.

نگرانی دیگر مقامات دولتی بریتانیا این است که تکرار بعدی مدل‌های هوش مصنوعی، پایین‌تر از سطح هوش مصنوعی عمومی، می‌تواند توسط بازیگران سرکش دستکاری شود تا تهدیدهای جدی مانند بیوویژن‌ها ایجاد شود. یکی از نگرانی‌های مرتبط با این فناوری این است که مدل‌های مبتنی بر این فناوری به‌صورت رایگان در دسترس و قابل‌تغییر باشند.

کارمندان دولت می‌گویند که آن‌ها همچنین در حال کاربر روی مبارزه با خطرات کوتاه‌مدت مانند اطلاعات نادرست و نقض کپی‌رایت هستند. اما با ورود رهبران بین‌المللی به پارک بلچلی تا چند هفته دیگر، داونینگ استریت می‌خواهد توجه جهان را به چیزی جلب کند که به اعتقاد مقامات به‌اندازه کافی در محافل سیاسی جدی گرفته نمی‌شود.

انتهای پیام/

ارسال نظر
هلدینگ شایسته