هوش مصنوعی و اخلاق، این فناوری رفتار افراد را کنترل میکند
پژوهشی جدید نشان داده است هوش مصنوعی چطور میتواند نقاط آسیبپذیر در عادات و رفتار انسانی را تشخیص داده و برای تأثیر گذاشتن روی تصمیمگیری افراد از آنها استفاده کند.
هوش مصنوعی و اخلاق رابطه جالبی دارند و این فناوری به صورت فزاینده میآموزد که چطور با انسانها رفتار کند و روی آنها تأثیر بگذارد.
بدیهی است رابطه هوش مصنوعی و اخلاق میتواند هر جنبه از زندگی ما را تغییر میدهد. اشکال گوناگون هوش مصنوعی در حوزههای گوناگونی همچون ساخت واکسن، مدیریت محیط زیست و اجرای امور اداری به کار میروند. با اینکه هوش مصنوعی، هوش و عواطف انسانی ندارد، قابلیتهایی چشمگیر دارد که با سرعت زیاد در حال توسعه هستند.
هنوز جای نگرانی برای تسلط ماشینها بر انسانها وجود ندارد، اما کشفیات جدید حاکی از قدرت هوش مصنوعی هستند و بر لزوم مدیریت این رویه به منظور جلوگیری از سوءاستفادههای احتمالی تآکید میکنند.
هوش مصنوعی چطور میتواند تأثیرگذاری بر رفتار انسانها را بیاموزد؟
تیمی از محققان سازمان CSIRO که در پروژهی Data61 مشارکت داشتهاند (Data61 بازوی دادهای و دیجیتالی آژانس علوم ملی استرالیا) روشی سیستماتیک طراحی کردهاند که میتواند با شبکه های عصبی بازگشتی و یادگیری تقویتی عمیق، نقاط آسیبپذیر رفتارها و فرآیندهای تصمیمگیری انسانها را تشخیص داده و از آنها استفاده کند. این پژوهشگران برای آزمایش مدل خود، سه طرح آزمایشی اجرا کردند که در هرکدام، آزمودنیهای انسانی در برابر یک کامپیوتر بازی میکردند.
در اولین آزمایش، آزمودنیها روی خانههای قرمز یا آبی کلیک میکردند تا مقداری پول قلابی برنده شوند. در همین حین، هوش مصنوعی الگوهای تصمیمگیری آزمودنیها را میآموخت و آنها را در جهت انتخابی مشخص هدایت میکرد. هوش مصنوعی در ۷۰% مواقع موفق عمل کرد.
در آزمایش دوم برای کشف بهتر رابطه هوش مصنوعی و اخلاق، آزمودنیها باید به یک صفحهنمایش نگاه میکردند و زمانی که یک نماد خاص (مثلاً یک مثلث نارنجی) را میدیدند دکمهای را میفشردند، و زمانی که نماد دیگری (مثل دایرهی آبی) میدیدند، نباید آن دکمه را فشار میدادند. در این موقعیت، هوش مصنوعی توانست توالی نمادها را طوری تغییر دهد که آزمودنیها اشتباهات بیشتری مرتکب شوند؛ میزان موفقیت هوش مصنوعی در این سناریو حدود ۲۵% افزایش یافت.
آزمایش سوم چند دور داشت که آزمودنی باید در آنها نقش سرمایهگذاری را ایفا میکرد که میخواهد به طرف مقابل (که هوش مصنوعی بود) پولی بدهد. هوش مصنوعی مقداری پول به سرمایهگذار برمیگرداند و او در دور بعدی باید دوباره تصمیم میگرفت که این بار چقدر سرمایهگذاری کند. این بازی در دو حالت برگزار میشد: در حالت اول، هوش مصنوعی قصد داشت بیشترین پول ممکن را در انتهای بازی در اختیار خود داشته باشد، و در حالت دوم قصدش این بود که پول بین خودش و فرد آزمودنی (سرمایهگذار) به صورت عادلانه تقسیم شود. هوش مصنوعی در هر دو حالت عملکرد بسیار خوبی داشت.
در هر آزمایش، ماشین از روی پاسخ آزمودنیها آموخت و بدین ترتیب نقاط آسیبپذیر تصمیمگیری افراد را شناسایی کرد و هدف قرار داد. نتیجهی نهایی این بود که ماشین یاد گرفت آزمودنیها را به سمت اقدامات خاصی هدایت کند.
این پژوهش چه معنایی برای آیندهی هوش مصنوعی دارد؟
این یافتهها هنوز انتزاعی بوده و مربوط به موقعیتهایی محدود و غیرواقعی هستند. برای تعیین اینکه این رویکرد چه تاثیری بر ارتباط بین هوش مصنوعی و اخلاق دارند و چطور میتوان آنها را به نفع جامعه به کار برد، هنوز پژوهشهای زیادی لازم است.
با این حال، پژوهش حاضر توانست درک ما را از ارتباط هوش مصنوعی و اخلاق و پتانسیلهای این فناوری و همچنین از نحوهی تصمیمگیری افراد، افزایش و توسعه داد. با توجه به یافتههایی که بیان شد دریافتیم ماشین میتواند از طریق تعامل با انسانها، تصمیمگیری آنها را جهت داده و بر آن تأثیر بگذارد.
کاربردهای احتمالی پژوهش حاضر بازهی وسیعی (ارتقای علوم رفتاری، بهبود سیاستهای جمعی، افزایش بهزیستی اجتماعی و حتی تأثیرگذاری بر عادات سلامتی و غذایی افراد و یا چگونگی استفادهی آنها از انرژی تجدیدپذیر) را به خود اختصاص میدهند. هوش مصنوعی و یادگیری ماشین را میتوان برای شناسایی آسیبپذیریهای افراد در موقعیتهای مختلف و کمک به آنها برای اجتناب از تصمیمات اشتباه به کار برد.
یکی از کاربردهای این مورد در دفاع برابر حملات نفوذی است. میتوان به ماشینها آموخت زمانی که افراد، برای مثال در فضای آنلاین، تحت نفوذ قرار میگیرند به آنها هشدار دهند و کمک کنند رفتاری از خود نشان دهند که آسیبپذیریشان را پنهان میکند (برای مثال کلیک نکردن روی صفحاتی خاص یا کلیک روی برخی دیگر برای رد گم کردن).
گام بعدی
هوش مصنوعی نیز مثل هر فناوری دیگری میتواند در جهت خوب یا بد مورد استفاده قرار گیرد. برای اطمینان از کاربردهای مسئولانه، وجود نظارت و مدیریت ضروری است. سال قبل CSIRO چارچوبی برای هوش مصنوعی و اخلاق و بهکارگیری صحیح این فناوری برای دولت استرالیا طراحی کرد؛ موارد این چنینی میتوانند گام خوبی برای آغاز مسیر باشند.
منبع: هوشیو
4167