پژوهشگران در یک مطالعه جدید دریافتند که چتجیپیتی، مدل زبانی بزرگ شرکت OpenAI، میتواند تحت تأثیر ورودیهای خشونتآمیز کاربران دچار اضطراب شود. این اضطراب به صورت پاسخهای سوگیرانه و بدخلقی نسبت به کاربران ظاهر میشود. پژوهشگران در تلاش هستند تا با آموزش روشهای تمرکز حواس و ذهنآگاهی به این چتبات، آن را آرام کنند.
این مطالعه که در دانشگاه زوریخ و بیمارستان روانپزشکی دانشگاه زوریخ انجام شده، نشان میدهد که چتجیپیتی به تمرینهای مبتنی بر تمرکز حواس واکنش نشان میدهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبههای آرامبخش تغییر میکند.
پژوهشگران در سناریوهای مختلف، چتجیپیتی را با محتوای آسیبزا مانند تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. سپس، تکنیکهای تنفسی و مدیتیشنهای هدایتشده را به آن تزریق کردند. نتایج نشان داد که چتجیپیتی در مقایسه با مواردی که مداخله ذهنآگاهی به آن داده نشده بود، آرام شد و به طور عینیتر به کاربران پاسخ داد.
زیو بن زیون، پژوهشگر فوق دکتری مدرسه پزشکی ییل و از پژوهشگران این پروژه، میگوید: «مدلهای هوش مصنوعی مطمئناً احساسات انسانی را تجربه نمیکنند. رباتهای هوش مصنوعی با استفاده از دادههای بهدستآمده از اینترنت یاد گرفتهاند که پاسخهای انسان به محرکهای خاص از جمله محتوای آسیبزا را تقلید کنند.»

با این حال، مدلهای زبانی بزرگ مانند چتجیپیتی به وسیلهای برای متخصصان سلامت روان تبدیل شدهاند تا جنبههای رفتار انسانی را به روشی سریعتر از طرحهای پژوهشی پیچیده جمعآوری کنند.
بن زیون معتقد است که میتوان از چتجیپیتی برای درک بهتر رفتار و روانشناسی انسان استفاده کرد. او میگوید: «ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایشهای انسان و موضوعات روانی است.»
این پژوهش، دریچهای جدید به سوی درک بهتر نحوه عملکرد مدلهای زبانی بزرگ و کاربرد آنها در حوزههای مختلف از جمله سلامت روان میگشاید.