آیا ترکیب هوش مصنوعی و روانشناسی پاسخگوی نیاز بیماران خواهد بود؟

برخی از روانشناسان بالینی ممکن است رابطه‌ای بین هوش مصنوعی و روانشناسی متصور نشوند و بر این مساله پافشاری کنند که هوش مصنوعی نباید هیچ گونه نقشی در مراقبت‌های بهداشت روان داشته باشد.

آیا ترکیب هوش مصنوعی و روانشناسی پاسخگوی نیاز بیماران خواهد بود؟

آن‌ها معتقدند رابطه روان درمانی مقدس است و هوش مصنوعی حتی نباید در اتاق درمان نیز حضور داشته باشد. در آمریکا تنها نیمی از کسانی که دارای مشکلات روانی هستند خدمات روان­‌درمانی دریافت می‌کنند. از این روی یک استدلال منطقی وجود دارد که هوش مصنوعی، به ویژه ابزارهای مبتنی بر فناوری پردازش زبان طبیعی می‌توانند مراقبت را بهبود بخشند و همچنین دسترسی به خدمات درمانی را افزایش دهند.

به عنوان مثال، فناوری پردازش زبان طبیعی، می‌تواند به محققان کمک کند تا بفهمند چه فاکتورهایی باعث می‌شود برخی از روان­‌درمانگران درمان موثرتری نسبت به دیگران ارائه دهند، اطلاعاتی که می‌تواند برای بهبود آموزش روان­‌شناسان جدید استفاده شود. سیستم‌های پردازش زبان طبیعی همچنین می‌توانند در جلسات درمان به کار گرفته شوند به کارآموزان بالینی یا پزشکان باتجربه بازخورد دهند، پیش‌نویس اولیه از شرح حال و فرایند درمان را ایجاد کنند، یا تغییرات الگوهای گفتاری مراجیعن را کشف کنند که این می‌تواند یک شاخص اولیه برای نشان دادن وضعیت فرد باشد. هوش مصنوعی پیشرفته‌تر حتی ممکن است با بیماران مکالمه داشته باشد و در تمام ساعات روز در دسترس باشد تا اینگونه دسترسی به مراقبت‌های درمانی افزایش یابد.

آدام ماینر، روانشناس بالینی و اپیدمیولوژیست و متخصص روانپزشکی و علوم رفتاری در دانشکده پزشکی استنفورد می‌گوید: با فرض اینکه حریم خصوصی بیماران رعایت شود، ابزارهای پردازش زبان طبیعی می‌توانند به طور معنی­‌داری تجربه یا بینش پزشکان را افزایش دهند.

ماینر و همکارانش برای اینکه این رویا را تحقق بخشند در حال آماده­‌کردن زمینه ادغام هوش مصنوعی و روانشناسی هستند. آن‌ها بررسی کرده‌اند که آیا سیستم‌های خودکار تشخیص گفتار می‌توانند جلسات درمانی را با دقت رونویسی کنند یا خیر. همچنین آیا می‌­توان از پردازش زبان طبیعی برای شناسایی ابراز همدردی در پیام‌های متنی همکاران استفاده کرد؟ علاوه بر این آن‌ها در حال بررسی این موضوع هستند که چگونه هوش مصنوعی‌ای که قادر به مکالمه است ممکن است بر رابطه درمانی تأثیر بگذارد و در عین حال دسترسی به مراقبت را گسترش دهد.

پردازش زبان طبیعی راهی به سوی افزایش مراقبت‌های درمانی: آیا ابزارهای تشخیص گفتار به اندازه کافی خوب هستند؟
به منظور بررسی رابطه بین هوش مصنوعی و روانشناسی باید به این نکته توجه شود؛ قبل از اینکه از فناوری پردازش زبان طبیعی برای افزایش مراقبت‌های بالینی استفاده شود، محققان باید بدانند که آیا سیستم‌های تشخیص گفتار خودکار (ASR) می‌توانند جلسات درمانی را با دقت کافی رونویسی کنند یا خیر؟ اگر این اتفاق بیافتد می‌توان از آن‌ها برای تشخیص الگوهای درمانی در محیط‌های بالینی واقعی استفاده کرد.

ماینر می‌گوید: این فناوری قبل از کامل شدن نیز مفید خواهد بود. بنابراین این سوال پیش می‌آید که "به اندازه کافی خوب " یعنی چه؟ زیرا این در جمعیت‌های مختلف یا موارد استفاده متفاوت فرق خواهد کرد.

در مقاله اخیر، ماینر و همکارانش با استفاده از ابزار رونویسی گفتار به متن گوگل ۱۰۰ جلسه درمانی مختلف را بررسی کردند. هدف آن‌ها از این پژوهش تجزیه و تحلیل دقت کلی رونوشت‌ها، چگونگی تشخیص واژه‌های اصلی علائم مربوط به افسردگی یا اضطراب و همچنین شناسایی افکار خودکشی یا قتل بود. ماینر می‌گوید: در سلامت روان چند مورد وجود دارد که ما واقعاً انتظار داریم درست پیش­بینی شوند، مانند افکار خودکشی. بنابراین اگر سیستم به‌طور کلی خوب کار کند اما در این موارد خیلی خوب عمل نکند، این یک مشکل بزرگ است.

برای بررسی دقت کلی از دو معیاراستفاده شد. اول اینکه گروه تحقیق به بررسی میزان خطای کلمات رونویسی شده پرداخت. همچنین اندازه‌گیری ریاضی در مورد اینکه تا چه اندازه جملات افراد و جملات بازنویسی­‌شده توسط نرم‌افزار از لحاظ معنایی از هم دور هستند. این معیار به عنوان فاصله معنایی شناخته می‌شود.

به عنوان مثال، اگر شخصی بگوید «مادربزرگ من مرده است» و نرم‌افزار آن را به عنوان «مادربزرگ من در حال مرگ است» رونویسی کند، میزان خطای کلمات رونویسی شده ۲۵ درصد است، اما از آنجا که معنی مشابه است، فاصله معنایی زیاد نیست. از سوی دیگر، اگر نرم‌افزار گزارش دهد «مادربزرگ من رفته است»، میزان خطای کلمه هنوز ۲۵ درصد است اما فاصله معنایی بیشتر است.

به طور کلی تیم ماینر در تحقیق خود به این نتیجه رسید که میزان خطای کلمه ۲۵ درصد است، اما فاصله معنایی بین نرم‌افزار و رونوشت‌های دستی زیاد نیست. یعنی نرم‌افزار بیشتر شبیه «مادربزرگ من در حال مرگ» است رونویسی می‌کرد تا «مادربزرگ من رفته است».

ماینر می‌گوید: این قضیه ما را برای بهبود رابطه هوش مصنوعی و روانشناسی امیدوار می‌کند. درواقع با داده‌های آموزشی بیشتر، و مدل‌سازی بهتر در محیط‌های پزشکی، نرم‌افزار می‌تواند در رونویسی جلسات درمانی بهتر عمل کند.

استخراج نشانه‌های همدلی از متن
پس از رونویسی دقیق جلسات درمانی مرحله بعدی این است که تعیین کنیم آیا سیستم‌های پردازش زبان طبیعی می‌توانند اطلاعات معنی­‌داری که برای فرایند درمان مفید هستند را استخراج کنند یا نه؟ به عنوان مثال، آیا می‌توانیم تعیین کنیم که چه چیزی باعث تمایز و برتری برخی از درمانگران نسبت به دیگران می‌شود؟ آیا ابراز همدلی می‌تواند یکی از ویژگی‌های درمان موثر باشد؟

با شرایط موجود هوش مصنوعی و روانشناسی، استفاده از پردازش زبان طبیعی برای این منظور دشوار است، زیرا درمان یک تجربه خصوصی و محرمانه است که به ندرت ضبط می‌شود و حتی بسیار کم اتفاق می‌افتد که رونویسی شود. بنابراین ماینر و همکارانش یعنی تیم آلتف از دانشگاه واشنگتن، آشیش شارما دانشجوی ارشد آلتف، و دیوید اتکینز از دانشکده پزشکی UW به یک مجموعه داده جایگزین با کیفیت بالا مراجعه کردند. در واقع این داده‌ها شرحی از ارتباطات درمانی افراد در تالارهای گفتگوی آنلاین سایت‌های TalkLife و Reddit بود. در انجمن‌های اینترنتی ممکن است برخی افراد درخواست کمک داشته باشند و برخی دیگر که تجربه و درمان مشابه داشته‌اند توصیه‌ و تجربه‌های خود را بگویند. به این افراد داوطلبان حامی گفته می‌شود.

ماینر می‌گوید: از آنجا که این انجمن‌های آنلاین مبتنی بر متن هستند، ما دقیقاً می‌دانیم که چه چیزی گفته شده است و در واقع دیگر نیازی به رونویسی وجود ندارد. همچنین مامی‌دانیم چه کسی چه چیزی را گفته است. بنابراین، با حفظ محرمانگی و حریم خصوصی افراد می‌توانیم از مجموعه داده‌های این پیام‌های متنی استفاده کنیم تا پی ببریم که آیا می‌تواند پاسخ‌های بین فردی و جزئیات آن را تشخیص دهد یا نه.

به عنوان مثال در مقاله اخیر، شارما (نویسنده اول)، ماینر، اتکینز و آلتوف چارچوبی را برای شناسایی همدلی در متون توسعه دادند، و سپس به دنبال نشانگرهای همدلی در پیام‌های متنی گشتند. این پیام‌ها توسط داوطلبان حامی در انجمن‌های TalkLife و Reddit در پاسخ به افرادی که به دنبال کمک بودند نوشته شده بودند.

سیستم پردازش زبان طبیعی که با استفاده از ۱۰ هزار سوال و جواب آموزش دیده بود، بیش از ۸۰ درصد مواقع قادر به کشف دقیق همدلی بود.

این سیستم همچنین می‌توانست پاسخ‌های نگران­‌کننده را تشخیص دهد: تیم پردازش زبان طبیعی از این مدل استفاده کرد تا ۲۳۵۰۰۰ تعامل بین کاربران را تجزیه و تحلیل کند. آن‌ها کشف کردند که کدام یک از داوطلبان حامی در ابراز همدلی ضعیف‌تر عمل کرده‌اند و حتی با گذشت زمان نیز بهتر نشده‌­اند.

ماینر می‌گوید: بسیار هیجان­‌انگیز است که این روش، دسترسی به خدمات بهداشت روانی را افزایش می‌دهد. اما از سوی دیگر نگران­‌کننده است که شنوندگان مهارت بیشتری ندارند. این نتایج به ما نشان داد ما نیاز به آموزش بهتر داوطلبان حامی داریم. ماینر می‌گوید: اگر ما بتوانیم از این مکالمه‌ها یاد بگیریم و افراد کمک­‌کننده را آموزش دهیم، این می‌تواند منجر به یک چرخه بازخورد و یادگیری مناسب شود که باعث می‌شود سیستم بهتر عمل کند.

علاوه بر این، مطالعه در مورد همدلی زمینه را برای پیشبرد کار ماینر فراهم می‌کند، زیرا این موضوع به توانایی پردازش زبان طبیعی در تشخیص مواردی که پزشکان می‌دانند مهم است اما اندازه‌گیری آن‌ها دشوار است اشاره دارد. مانند شناسایی شاخص‌های درمان با کیفیت بالا.

هوش مصنوعی مکالمه‌ای
اما حتی اگر رابطه هوش مصنوعی و روانشناسی بتواند به بهبود کیفیت درمان حضوری کمک کند، مشکل اینجا است که به اندازه کافی درمانگر وجود ندارد. بنابراین احتمالا بازیگر اصلی برای افزایش دسترسی به مراقبت‌های بهداشت روان، ربات‌های چت مبتنی بر هوش مصنوعی هستند. ماینر می‌گوید: مزیت چت بات‌ها این است که ساعت ۲ شب و در تعطیلات نیز بیدار هستند و هرگز شما را قضاوت نخواهند کرد.

در مقاله اخیر در مورد هوش مصنوعی و روانشناسی، ماینر و همکارانش چهار گزینه برای ارائه مراقبت‌های بهداشت روان را بررسی کردند. گزینه اول همان درمان‌های سنتی بدون درگیر شدن هوش مصنوعی بود. گزینه دوم درمان سنتی که از هوش مصنوعی بهره می‌گیرد تا بهتر عمل کند (همان روشی که بالاتر توضیح داده شد). سومین حالت درمانی است که از طریق هوش مصنوعی انجام می‌شود اما تحت نظارت روان­شناسان است و گزینه آخر درمانی است که ۱۰۰ درصد توسط هوش مصنوعی ارائه می‌شود و هیچ انتظاری برای نظارت توسط پزشک بالینی وجود ندارد.

نکته جالب دیگر درباره رابطه بین هوش مصنوعی و روانشناسی این است که در مورد چت بات تحت نظارت انسان، یک پزشک ممکن است نقش‌های خاصی را به هوش مصنوعی واگذار کند یا مکالمات بین بیماران و هوش مصنوعی ارائه دهنده خدمات را بررسی کند. ماینر می‌گوید: در این مورد اگر کسی به افکار خودکشی اشاره کند، سیستم هوش مصنوعی می‌تواند با شماره اورژانس تماس بگیرد، یا ارتباط بیمار را با یک فرد دیگر برقرار کند.

به دلیل نگرانی در مورد ایمنی، ماینر درمورد گزینه آخر کمی مردد است، یعنی درمانی که فقط یک چت بات با بیمار صحبت کند. اما او این را نیز در نظر می‌گیرد که ممکن است بیمارانی وجود داشته باشند که ترکیب هوش مصنوعی و روانشناسی برای آن‌ها بهتر از یک انسان باشد. ماینر می‌گوید: ما در واقع نمی‌دانیم آیا ممکن است یک نرم افزار هوش مصنوعی برای برخی از افراد یا مکالمات خاص قابل اعتمادتر از یک انسان باشد.

ماینر و همکارانش در مقاله خود، به کاوش روش‌های مختلفی پرداختند که در آن یک چت بات درمان­گر نه تنها بر دسترسی به مراقبت‌های بهداشت روان تاثیر می‌گذارد، بلکه بر کیفیت مراقبت، روابط پزشک و بیمار، تمایل بیماران به افشای افکار خود، و همچنین مسائل مربوط به امنیت، حریم خصوصی و نظارت اثر می‌گذارد. ماینر می‌گوید: ما باید در مورد حریم خصوصی بسیار دقیق عمل کنیم زیرا اگر بیماران به سیستم اعتماد نکنند، ممکن است درمان را قطع کنند یا از بیان تجربیات حساس خود که برای گفتگو و به اشتراک‌گذاری مهم است، اجتناب کنند.

به هر حال ماینر در آینده دنیایی را تصور می‌کند که در آن هر چهار گزینه ممکن است مورد استفاده قرار گیرند. نکته تاکیدی درباره هوش مصنوعی و روانشناسی این است که قرار نیست هوش مصنوعی جایگزین درمانگران شود. وی می‌گوید: از نظر من، این ابزار، تجربه یا بینش پزشک را افزایش می‌دهند و آن را تقویت می‌کنند. وی در مورد ادامه کار می‌گوید: کارهای زیادی باید انجام بگیرد تا همکاری انسان و هوش مصنوعی به بهترین شکل درک شود. با این حال سوال این است که واکنش متخصصان درباره یک هوش مصنوعی درمان­گر چه خواهد بود؟ ترکیب هوش مصنوعی و روانشناسی چگونه در فرایند درمان قرار خواهد گرفت؟ او می‌گوید: اگر این مدل‌ها به خوبی اجرا نشوند یا برای پزشکان و مدیران به خوبی طراحی نشوند، با مشکل مواجه می‌شوند.

با این وجود، ماینر می‌گوید این اتفاق سریع­‌تر از آن چیزی رخ خواهد داد که بسیاری از مردم فکر می‌کنند.

منبع: هوشیو

70

شبکه‌های اجتماعی
دیدگاهتان را بنویسید

اخبار مرتبط سایر رسانه ها

    اخبار سایر رسانه ها