دیده بان پیشرفت علم، فناوری و نوآوری
آنا گزارش می‌دهد؛

رگولاتوری هوش مصنوعی، ضرورت جلوگیری از ایجاد تبعیض در عصر دیجیتال

رگولاتوری هوش مصنوعی، ضرورت جلوگیری از ایجاد تبعیض در عصر دیجیتال
توسعه پرشتاب هوش مصنوعی و تأثیرگذاری گسترده این فناوری بر خدمات آنلاین قانون‌گذاری در زمینه چگونگی به‌کارگیری و تعریف الگوریتم‌های هوش مصنوعی برای پیشگیری از تبعیض علیه کاربران را ضروری ساخته است.
کد خبر : 819200

به گزارش خبرنگار گروه دانش و فناوری خبرگزاری آنا، علیرغم نقش مهم و روزافزون هوش مصنوعی در بسیاری از بخش‌های جامعه مدرن، سیاست یا مقررات بسیار کمی بر توسعه و استفاده از سیستم‌های هوش مصنوعی در اقصی نقاط دنیا به ویژه در کشورهای توسعه یافته وجود دارد و در نتیجه شرکت‌های فناوری تا حد زیادی به حال خود رها شده‌اند تا خود نقش تنظیم‌گر را ایفا کنند. روندی که منجر به تصمیم‌گیری‌ها و موقعیت‌هایی می‌شود که مورد انتقاد قرار گرفته است.

گوگل کارمندی را اخراج کرد که علناً نگرانی‌هایی را در مورد اینکه چگونه نوع خاصی از هوش مصنوعی می‌تواند به مشکلات زیست محیطی و اجتماعی کمک کند، مطرح کرده بود. سایر شرکت‌های هوش مصنوعی محصولاتی را توسعه داده‌اند که توسط سازمان‌هایی مانند اداره پلیس لس‌آنجلس استفاده می‌شوند؛ مسئله‌ای که حاکی از آن است که سیاست‌های مغرضانه آن‌ها تقویت نژادپرستی موجود را دنبال می‌کنند.

**توصیه‌ها و راهنمایی‌های دولتی در مورد استفاده از هوش مصنوعی

در اوایل اکتبر ۲۰۲۲، دفتر سیاست علم و فناوری دولت آمریکا با انتشار طرح اولیه منشور حقوق هوش مصنوعی بخش بزرگی را به لیست راهنمایی‌های دولتی در خصوص چگونگی به‌کارگیری فناوری هوش مصنوعی افزود. مسئولان این دفتر علم و فناوری می‎گویند «حفاظت‌های ذکر شده در سند باید برای همه سیستم‌های خودکار اعمال شود. این طرح شامل پنج اصل است که باید طراحی، استفاده و استقرار سیستم‌های خودکار را برای محافظت از مردم در عصر هوش مصنوعی هدایت کند.»

رگولاتوری هوش مصنوعی، ضرورت جلوگیری از ایجاد تبعیض در عصر دیجیتال

**بهبود سیستم‌ها برای همه کاربران

هدف دو اصل اول پرداختن به ایمنی و اثربخشی سیستم‌های هوش مصنوعی و همچنین خطر اصلی تبعیض بیشتر ناشی از هوش مصنوعی است. برای بهبود ایمنی و اثربخشی هوش مصنوعی، اصل اول پیشنهاد می‌کند که سیستم‌های هوش مصنوعی نه تنها باید توسط متخصصان، بلکه با ورودی مستقیم افراد و جوامعی که از سیستم‌ها استفاده می‌کنند و تحت تاثیر قرار می‌گیرند، توسعه داده شوند. جوامع استثمار شده و به حاشیه رانده شده اغلب مجبورند با عواقب سیستم‌های هوش مصنوعی دست و پنجه نرم کنند بدون اینکه حرف زیادی در توسعه آن‌ها داشته باشند. تحقیقات نشان داده است که مشارکت مستقیم و واقعی جامعه در فرآیند توسعه برای به‌کارگیری فناوری‌هایی که تاثیر مثبت و پایداری بر آن جوامع دارند، مهم است.

بیشتر بخوانید:

درمان پوکی استخوان با استفاده از میکروروبات‌های هوشمند /فناوری؛ پیشگیری، تشخیص و درمان پوکی استخوان را تسهیل می‌کند

نخبگان ایرانی چالش تأمین انرژی خودروهای الکتریکی را رفع کردند/ تبدیل خیابان‌های شهر به مسیرهای سبز با شارژر بیسیم خودروهای برقی

اصل دوم بر مشکل شناخته شده تبعیض الگوریتمی در سیستم‌های هوش مصنوعی متمرکز است. یک مثال شناخته شده در این باره این است که چگونه الگوریتم‌های تأیید وام مسکن علیه اقلیت‌ها تبعیض قائل می‌شوند. این سند از شرکت‌ها می‌خواهد تا سیستم‌های هوش مصنوعی را توسعه دهند که بر اساس نژاد، جنسیت یا سایر وضعیت طبقه محافظت شده با افراد رفتار متفاوتی نداشته باشد. بر اساس این اصل به شرکت‌ها پیشنهاد می‌‌شود از ابزار‌هایی مانند ارزیابی حقوق صاحبان سهام استفاده کنند که می‌تواند به ارزیابی اینکه چگونه یک سیستم هوش مصنوعی ممکن است بر اعضای جوامع استثمار و به حاشیه رانده شده تاثیر بگذارد، کمک کند. این دو اصل اول به مسائل بزرگ سوگیری و انصاف می‌پردازند که در توسعه و استفاده از هوش مصنوعی یافت می‌شود.

**حریم خصوصی، شفافیت و کنترل

سه اصل آخر راه‌هایی را برای کنترل بیشتر افراد در هنگام تعامل با سیستم‌های هوش مصنوعی ترسیم می‌کند. اصل سوم در مورد حفظ حریم خصوصی داده‌هاست. این اصل به دنبال اطمینان از این است که مردم در مورد نحوه استفاده از داده‌هایشان نظر بیشتری داشته باشند و در برابر اقدامات سوء‌استفاده از داده‌ها محافظت شوند. هدف این بخش رسیدگی به موقعیت‌هایی است که برای مثال، شرکت‌ها از طراحی فریبنده برای دستکاری کاربران برای ارائه داده‌هایشان استفاده می‌کنند. این طرح شامل اقداماتی مانند نگرفتن داده‌های یک فرد است، مگر اینکه آن‌ها با آن موافقت کنند و به روشی که برای آن شخص قابل درک باشد، سوال کنند.

اصل بعدی بر «توضیح» تمرکز داشته و اهمیت شفافیت را برجسته می‌کند؛ مردم باید بدانند که چگونه از یک سیستم هوش مصنوعی استفاده می‌شود و همچنین در مورد روش‌هایی که هوش مصنوعی در نتایجی که ممکن است بر آن‌ها تاثیر بگذارد، کمک کند. به عنوان مثال اداره خدمات کودکان شهر نیویورک را در نظر بگیرید. تحقیقات نشان داده است که آژانس از سیستم‌های هوش مصنوعی برون‌سپاری شده برای پیش‌بینی بدرفتاری با کودکان استفاده می‌کند، سیستم‌هایی که اکثر مردم متوجه استفاده از آن‌ها نیستند.

منشور حقوق هوش مصنوعی دستورالعملی را ارائه می‌کند که در این مثال، افرادی در نیویورک که تحت تاثیر سیستم‌های هوش مصنوعی در حال استفاده قرار می‌گیرند، باید از دخالت هوش مصنوعی مطلع شده و به توضیحی در مورد کار‌هایی که هوش مصنوعی انجام داده است، دسترسی داشته باشند. تحقیقات نشان داده است که ایجاد شفافیت در سیستم‌های هوش مصنوعی می‌تواند خطر خطا یا سوء‌استفاده را کاهش دهد.

آخرین اصل منشور حقوق هوش مصنوعی چارچوبی را برای جایگزین‌های انسانی، بررسی و بازخورد ترسیم می‌کند. این بخش مشخص می‌کند که افراد باید بتوانند در صورت معقول بودن، از استفاده از هوش مصنوعی یا سایر سیستم‌های خودکار به نفع جایگزین انسانی خودداری کنند؛ برای مثال از اینکه چگونه این دو اصل آخر ممکن است با هم کار کنند. مورد شخصی را در نظر بگیرید که برای وام مسکن درخواست داده است. اگر از یک الگوریتم هوش مصنوعی برای بررسی برنامه آن‌ها استفاده شود، به آن‌ها اطلاع داده می‌شود و این گزینه را دارند که با استفاده از هوش مصنوعی به نفع یک شخص واقعی انصراف دهند.

رگولاتوری هوش مصنوعی، ضرورت جلوگیری از ایجاد تبعیض در عصر دیجیتال

**دستورالعمل‌های هوشمند، بدون قابلیت اجرا

پنج اصل مندرج در منشور حقوق هوش مصنوعی به بسیاری از مسائلی که محققان در مورد طراحی و استفاده از هوش مصنوعی مطرح کرده‌اند، می‌پردازد؛ با این حال این یک سند غیر الزام‌آور است و در حال حاضر قابل اجرا نیست. اما اگر نبرد نظارتی جاری بر سر حفظ حریم خصوصی داده‌ها هر گونه راهنمایی ارائه دهد، شرکت‌های فناوری به فشار برای خود تنظیمی ادامه خواهند داد.

یکی دیگر از موضوعاتی که در منشور حقوق هوش مصنوعی وجود دارد این است که نمی‌تواند مستقیماً سیستم‌های غیرعادلانه را مانند نژادپرستی یا تبعیض جنسی و اینکه چگونه می‌توانند بر استفاده و توسعه هوش مصنوعی تاثیر بگذارند، فراخوانی کند. به عنوان مثال، مطالعات نشان داده‌اند که فرضیات نادرست تعبیه شده در الگوریتم‌های هوش مصنوعی مورد استفاده در مراقبت‌های بهداشتی منجر به مراقبت بدتر برای بیماران سیاه پوست شده است مسئله‌ای که به اعتقاد کارشناسان در هنگام توسعه سیستم‌های هوش مصنوعی باید به طور مستقیم به نژادپرستی ضدسیاهپوستان پرداخته شود. در حالی که منشور حقوق هوش مصنوعی به ایده‌های تعصب و انصاف می‌پردازد، عدم تمرکز بر سیستم‌های ظلم‌آمیز یک حفره قابل توجه و یک مسئله شناخته شده در توسعه هوش مصنوعی است.

با وجود کاستی‌های این طرح می‌تواند گامی مثبت به سمت سیستم‌های هوش مصنوعی بهتر و شاید اولین گام به سمت مقررات باشد. سندی مانند این، حتی اگر خط مشی نباشد، می‌تواند مرجع قدرتمندی برای افرادی باشد که از تغییرات در روش توسعه و استفاده سازمانی از فناوری هوش مصنوعی حمایت می‌کنند.

انتهای پیام/4144

انتهای پیام/

ارسال نظر
هلدینگ شایسته