دیده بان پیشرفت علم، فناوری و نوآوری

خطر اجتماعی هوش مصنوعی؛ هم‌تراز با بیماری‌های همه‌گیر!

خطر اجتماعی هوش مصنوعی؛ هم‌تراز با بیماری‌های همه‌گیر!
یک محقق هوش مصنوعی گفت: توسعه روزافزون فناوری‌های نوین باید یک خطر اجتماعی همتراز با بیماری‌های همه‌گیر یا جنگ‌های هسته‌ای در نظر گرفته شود.
کد خبر : 869394

به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، «مکس تگمارک»، محقق هوش مصنوعی مؤسسه فناوری ماساچوست، نامه‌ای سرگشاده در ماه مارس ترتیب داد و خواستار توقف شش‌ماهه توسعه سیستم‌های هوش مصنوعی غول پیکر شد. با وجود حمایت بیش از ۳۰ هزار امضاکننده ازجمله ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، این سند نتوانست وقفه‌ای در توسعه جاه‌طلبانه‌ترین این سیستم‌ها ایجاد کند.

تگمارک ۶ ماه بعد گفت که انتظار نداشت این نامه مانع از کار شرکت‌های فناوری روی مدل‌های هوش مصنوعی قدرتمندتر از «جی‌پی‌تی-۴» ( GPT-۴) شود؛ زیرا رقابت بسیار شدید شده است.

به گفته وی بسیاری از رهبران شرکت‌ها می‌خواستند مانع این توسعه شوند؛ اما آن‌ها در این رقابت به دام افتادند؛ بنابراین هیچ شرکتی نمی‌توانست آن را متوقف کند. این نامه از دولت‌ها می‌خواهد که در صورت عدم امکان توقف توسعه سیستم‌های قدرتمندتر از جی‌پی‌تی-۴، حداقل در آن مداخله کنند.

بین شرکت‌های پیشرو هوش مصنوعی مانند گوگل، «اوپن‌ای‌آی» (OpenAI) و مایکروسافت توافق شده است. این سؤال در میان آن‌ها پرسیده شد که آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است درنهایت جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟

تگمارک گفت که این نامه را موفقیت‌آمیز می‌داند. وی با اشاره به بیداری سیاسی در زمینه هوش مصنوعی که شامل جلسات استماع سنای آمریکا با مدیران فناوری و دولت انگلیس برای تشکیل اجلاس جهانی در مورد ایمنی هوش مصنوعی در ماه نوامبر بود، گفت: «این نامه بیش از آن‌چه فکر می‌کردم، تأثیر داشته است.»

نامه اندیشکده وی در ماه مه با بیانیه‌ای از مرکز ایمنی هوش مصنوعی با حمایت صد‌ها نفر از مدیران فناوری و دانشگاهیان همراه شد و اعلام کرد که هوش مصنوعی باید یک خطر اجتماعی همتراز با بیماری‌های همه‌گیر و جنگ هسته‌ای در نظر گرفته شود.

محقق هوش مصنوعی موسسه فناوری ماساچوست می‌گوید: «احساس می‌کردم که نگرانی‌های زیادی در مورد پیشبرد هوش مصنوعی وجود دارد که مردم در سراسر جهان از بیان آن می‌ترسند.»

نگرانی‌ها در مورد توسعه هوش مصنوعی از توانایی تولید ویدئو‌های جعلی عمیق، تولید اطلاعات نادرست تا خطر وجودی ناشی از هوش مصنوعی فوق هوشمندی که از کنترل انسان طفره می‌رود یا تصمیمات غیرقابل برگشت، متغیر است.

به گفته تگمارک اجلاس امنیت هوش مصنوعی انگلیس که در نوامبر برگزار می‌شود، باید سه دستاورد را هدف قرار دهد. ایجاد درک مشترک از شدت خطرات ناشی از هوش مصنوعی با درک اینکه یک پاسخ جهانی یکپارچه مورد‌نیاز است. همچنین نیاز به مداخله فوری دولت‌ها وجود دارد. ساخت مدل‌های قدرتمندتر از آن‌چه اکنون داریم، باید متوقف شود تا زمانی که استاندارد‌های ایمنی برآورده شوند.

تگمارک همچنین از دولت‌ها خواست تا در مورد مدل‌های هوش مصنوعی منبع باز که عموم مردم می‌توانند به آن‌ها دسترسی داشته باشند، اقدام کنند.

متا به‌تازگی یک مدل زبانی بزرگ منبع باز به نام «لاما-۲» (Llama-۲) را منتشر کرده است. یک کارشناس بریتانیایی هشدار داده که چنین اقدامی شبیه دادن الگوی ساختن بمب هسته‌ای به مردم است.

تگمارک در این باره معتقد است: «فناوری خطرناک نباید منبع باز باشد، صرف نظر از اینکه سلاح‌های زیستی یا نرم‌افزاری باشند.»

انتهای پیام/

ارسال نظر
هلدینگ شایسته