در آستانه دومین اجلاس ایمنی هوش مصنوعی؛

دانشمندان هوش مصنوعی خواستار اقدام درباره خطرهای این فناوری شدند

دانشمندان برجسته حوزه هوش مصنوعی از جمله محققانی از دانشگاه آکسفورد خواستار اقدام قاطع‌تر از سوی رهبران جهان درباره خطرهای ناشی از این فناوری شدند.

دانشمندان هوش مصنوعی خواستار اقدام درباره خطرهای این فناوری شدند

این محققان هشدار دادند پیشرفت حاصل شده از زمان اولین اجلاس ایمنی هوش مصنوعی در «بلچلی پارک» انگلیس که ۶ ماه پیش برگزار شده بود تاکنون ناکافی بوده است. در آن زمان رهبران جهان متعهد به اداره مسئولانه امور مربوط به هوش مصنوعی شدند. اکنون در حالی که زمان برگزاری دومین اجلاس ایمنی هوش مصنوعی در سئول کره جنوبی روزهای ۲۱ و ۲۲ مه (اول و دوم خرداد) فرا رسیده است، ۲۵ تن از دانشمندان برجسته هوش مصنوعی در جهان می‌گویند اقدام کافی برای محافظت از مردم در برابر خطرهای این فناوری انجام نشده است.

این دانشمندان در یک مقاله اجماعی که روز گذشته در نشریه ساینس منتشر شد، اولویت‌های فوری سیاست‌گذاری برای اقدام رهبران جهان به منظور رویارویی با تهدیدات ناشی از فناوری‌های هوش مصنوعی را مشخص کردند.

پروفسور فیلیپ تور از دانشکده علوم مهندسی دانشگاه آکسفورد و از نویسندگان این مقاله خاطرنشان کرد: جهان در اجلاس قبلی در این خصوص به توافق رسید که ما نیازمند اقدام هستیم؛ اما اکنون زمان آن است که از پیشنهادهای مبهم به سمت تعهدات ملموس و واقعی حرکت کنیم. این مقاله توصیه‌های مهمی را در این خصوص ارائه می‌دهد که دولت‌ها و شرکت‌ها باید متعهد به انجام چه اقداماتی شوند.

بنا به نوشته مولفان این مقاله، رهبران جهان باید این احتمال را جدی بگیرند که سامانه‌های هوش مصنوعی جامع (generalist) بسیار نیرومند که در بسیاری حوزه‌های مهم از توانایی‌های انسانی فراتر می‌رود، در دهه جاری یا دهه آینده ایجاد خواهند شد. آنان می‌گویند هر چند دولت‌ها در سراسر جهان در حال بحث درباره هوش مصنوعی پیشرو بوده و تلاش‌هایی برای معرفی برخی خط‌مشی‌های راهنما کرده‌اند؛ این مساله با احتمال پیشرفت سریع و متحول‌کننده مورد انتظار بسیاری کارشناسان متناسب نیست.

در حال حاضر فقدان تحقیقات جدی درباره ایمنی هوش مصنوعی وجود دارد؛ طوری که تنها ۱ تا ۳ درصد از مقالات تحقیقی در این حوزه با مساله ایمنی ارتباط دارد. همچنین سازکارها و نهادهای لازم برای جلوگیری از سوءاستفاده‌ از هوش مصنوعی وجود ندارد.

این کارشناسان و دانشمندان از کشورهای چین، آمریکا، اتحادیه اروپا، انگلیس و سایر کشورها، یک درخواست فوری برای اقدام در این زمینه مطرح کرده‌اند. این مقاله اولین نمونه‌ای است که چنین گروه بزرگ و بین‌المللی از کارشناسان در خصوص اولویت‌های لازم برای سیاست‌گذاری جهان در ارتباط با خطرهای ناشی از سامانه‌های پیشرفته هوش مصنوعی توافق کرده‌اند.

این دانشمندان به دولت‌های جهان توصیه کرده‌اند اقداماتی در زمینه تاسیس نهادهای کارشناسی اقدام سریع برای نظارت بر هوش مصنوعی و ارزیابی جدی خطر با پیامدهای اجرایی انجام دهند. همچنین از شرکت های حوزه هوش مصنوعی بخواهند به مساله ایمنی اولویت و نشان دهند سامانه‌های آنها قادر به ایجاد آسیب نیستند. این محققان همچنین توصیه کرده‌اند دولت‌ها استانداردهایی در خصوص کاهش خطرهای متناسب با سطح ریسک ناشی از سامانه‌های هوش مصنوعی اجرا کنند.

هم اکنون هوش مصنوعی در حال پیشرفت سریع در حوزه‌های حیاتی مانند هک، دست‌کاری اجتماعی و برنامه‌ریزی راهبردی است و احتمال دارد به زودی چالش‌های بی‌سابقه‌ای ایجاد کند.

منبع: ایرنا
شبکه‌های اجتماعی
دیدگاهتان را بنویسید

اخبار مرتبط سایر رسانه ها

    اخبار سایر رسانه ها