دیده بان پیشرفت علم، فناوری و نوآوری
18 ارديبهشت 1402 - 12:07
محقق دانشگاه آکسفورد:

گسترش هوش مصنوعی در مدارس در چارچوب ایمن و قانونی قرار بگیرد

گسترش هوش مصنوعی در مدارس در چارچوب ایمن و قانونی قرار بگیرد
محقق دانشگاه آکسفورد می گوید، فقدان یک استراتژی روشن دولتی برای اطمینان از اکتشاف ایمن هوش مصنوعی در آموزش، کودکان را در معرض آسیب جدی قرار می‌دهد.
کد خبر : 846148

به گزارش خبرنگار گروه جامعه خبرگزاری علم و فناوری آنا، ویکتوریا نش مدیر ارشد سیاستگذاری، موسسه اینترنت آکسفورد، دانشگاه آکسفورد می‌نویسد، فقدان یک استراتژی روشن دولتی برای اطمینان از اکتشاف ایمن هوش مصنوعی در آموزش، کودکان را در معرض آسیب جدی قرار می‌دهد، فلذا دولت باید اقدامات بیشتری برای تنظیم هوش مصنوعی در آموزش انجام دهد.

وی ادامه می‌دهد، از زمانی که ماشین‌حساب‌های الکترونیکی توانایی افراد را برای تکمیل مسائل چالش برانگیز ریاضی بدون قلم یا کاغذ متحول کردند، راه درازی را پیموده‌ایم. با ظهور ChatGPT، Dall-E و مجموعه عظیمی از برنامه‌ها و برنامه‌های «edtech»، بار دیگر سؤالات مهمی درباره نقش مناسب فناوری در کلاس‌های درس پرسیده می‌شود. مزایای بالقوه این ابزارهای جدید مبتنی بر هوش مصنوعی گسترده است؛ شخصی سازی بیشتر برای فراگیران، اقداماتی برای کاهش بار کاری معلمان و فرصت هایی برای آماده سازی فراگیران به منظور عملکرد مثبت در مشاغل آینده از جمله این موارد است، اما مخاطرات آن نیز فوق‌العاده زیاد است و یک رویکرد غیرمعمول برای پذیرش هوش مصنوعی آموزشی می‌تواند منجر به آسیب‌های قابل توجهی برای کودکان و همچنین از بین بردن اعتماد به نوآوری شود.

ویکتوریا نش خاطرنشان می‌کند، تاکنون، دولت رویکردی عمدتاً غیرمستقیم برای تنظیم هوش مصنوعی نشان داده و این برخورد را اساساً «طرفدار نوآوری» می‌داند و ترجیح می‌دهد این موضوع را به تنظیم‌کنندگان بخشی موجود واگذار کند. اما واقعیت این است که در زمینه آموزش این امر خطرناک به نظر می رسد، به ویژه به این دلیل که مشخص نیست کدام تنظیم کننده می‌تواند مسئولیت را بر عهده بگیرد.
حضور در چنین شرایط مبهمی ما را وادار می کند که بپرسیم: آیا دولت نباید در حال حاضر مقرراتی را برای اطمینان از استفاده ایمن و مثبت از هوش مصنوعی در مدارس تنظیم کند؟

براساس داده‌های موجود، اتحادیه اروپا تا حدودی مقرراتی را برای اطمینان از استفاده ایمن و مثبت از هوش مصنوعی در مدارس تنظیم کرده و استراتژی انگلیس می‌تواند به طور مفیدی بر اساس اقدامات توسعه یافته در آنجا باشد.

 پیش‌نویس قانون هوش مصنوعی اروپا همچنین رویکردی مبتنی بر ریسک را اتخاذ می‌کند و سخت‌ترین تعهدات را در جایی که خطرات هوش مصنوعی بیشتر است، تحمیل می‌کند. در زمینه‌های آموزشی که استفاده از چنین ابزارهایی می‌تواند مسیر زندگی فرد را تغییر دهد، از جمله در امتحانات یا ارزیابی‌ها، به هوش مصنوعی اشاره خاصی می‌شود. شرکت‌هایی که این محصولات هوش مصنوعی با ریسک بالاتر را توسعه می‌‌دهند، موظف به رعایت قوانینی مانند ارزیابی خطر اجباری، استفاده از مجموعه داده‌های آموزشی با کیفیت بالا و ارائه اسناد اضافی برای امکان نظارت بر انطباق خواهند بود. علاوه بر این پیش‌نویس قانون، اتحادیه اروپا دستورالعمل‌های مفصلی را ارائه کرده است که بر ملاحظات کلیدی برای حمایت از استفاده مثبت از هوش مصنوعی در مدارس تاکید دارد. 

این دستورالعمل‌ها شامل اصول اخلاقی و توصیه های لازم برای اطمینان از قابل اعتماد بودن فناوری‌ها می‌شود و به نظر می‌رسد این نقطه شروع خوبی برای هر استراتژی انگلیس باشد.

با توجه به اینکه مخاطرات فوق العاده زیاد است، از نظر اخلاقی، دستورالعمل‌ها پیشنهاد می‌کنند که مدیران مدارس و مربیان باید در نظر داشته باشند که آیا استفاده از ابزارهای پیشنهادی هوش مصنوعی فضایی را برای تصمیم‌گیری انسانی باقی می‌گذارد، آیا با همه منصفانه رفتار می‌کند، آیا به کرامت انسانی احترام می‌گذارد و آیا توجیه شفافی برای تصمیم‌های اتخاذ شده ارائه می‌کند یا خیر. به منظور اطمینان از قابل اعتماد بودن ابزارها، این راهنما بر اهمیت اعتباربخشی و نیاز شرکت‌های توسعه‌دهنده ابزارهای آموزشی هوش مصنوعی به رعایت اصول اخلاقی مشابه تأکید می‌کند.

به نظر می رسد لزوم ارائه اعتبارنامه یا گواهی و مواردی امثال این‌ها از سوی شرکت‌ها‌ اقدامی بسیار ضروری است و در واقع، فقدان آن می‌تواند صدمات بسیاری به آموزش کودکان و نوجوانان بزند. 

تجهیزات زمین بازی باید استانداردهای ایمنی مورد تایید را داشته باشند و توسط پیمانکاران متخصص نصب شوند. طرح‌های خواندن برای پیامدهای یادگیری خاص و بر اساس آموزش به خوبی تحقیق شده طراحی شده‌اند.

در مقابل، هر کسی در حال حاضر می‌تواند یک برنامه یا سرویس آموزشی مبتنی بر هوش مصنوعی را بدون هیچ ورودی آموزشی تخصصی طراحی کند و این ابزار را می‌توان در کل کلاس یا مدرسه عرضه کرد؛ اگر می‌خواهیم ابتدا مطمئن شویم که چنین فناوری‌هایی علاوه بر اینکه به همان اندازه که مهم هستند و مزایای واقعی یادگیری را برای دانش‌‌آموزان به ارمغان می‌آورند، ایمن، مطمئن و قابل اعتماد هم هستند باید به نظارت بیشتر اولویت دهیم و بدانیم که حیاتی است. 

 دستورالعمل‌های اخلاقی برای طراحی و استفاده، صدور گواهینامه یا اعتبانامه و حاکمیت داده‌های جامع، این سه مولفه کنار یکدیگر نقطه شروع مناسبی را برای انگلیس فراهم می‌کند تا امکان کاوش ایمن، مثبت و مؤثر از پتانسیل بزرگ فناوری‌های هوش مصنوعی در مدارس را فراهم کند.

انتهای پیام/

ارسال نظر
هلدینگ شایسته