اعتماد نکنید، خطرناک است / هوش مصنوعی دکتر نیست
## خطرات استفاده از هوش مصنوعی به عنوان رواندرمانگر
استفاده از فناوریهای نوظهور برای حل مشکلات شخصی، به ویژه مسائل روحی، میتواند با خطراتی همراه باشد. اخیراً، ویدئویی در تیکتاک منتشر شده که در آن، فردی از ChatGPT به عنوان جایگزین رواندرمانگر استفاده میکند و این سوال را مطرح میکند که آیا دیگران نیز چنین تجربهای داشتهاند؟
با وجود تعجب دوستان این فرد، او تنها کسی نیست که به این ابزار هوش مصنوعی برای دریافت مشاوره در زمینه روابط، زندگی بهتر و حتی مسائل عاطفی عمیقتر روی آورده است.
این در حالی است که استفاده از هوش مصنوعی در حوزه سلامت روان موضوع جدیدی نیست و پیش از این نیز شاهد نمونههایی مانند Woebot بودهایم که با استفاده از پردازش زبان طبیعی و الگوریتمهای یادگیری، سعی در شبیهسازی مکالمات درمانی دارد.
با این حال، کارشناسان هشدار میدهند که فراگیر شدن استفاده از هوش مصنوعی به عنوان جایگزین درمانگر، زنگ خطری برای سیستم سلامت روان است. کمبود نیروی متخصص در این حوزه، به ویژه در مناطقی که از هر سه نفر یک نفر با این مشکل روبرو است، و هزینههای بالای درمان، افراد را به سمت ابزارهایی مانند ChatGPT سوق میدهد که پاسخهای سریع و رایگان ارائه میدهند.
همچنین، ماهیت غیر انسانی ChatGPT باعث میشود برخی افراد راحتتر افکار و احساسات خود را با آن به اشتراک بگذارند. اما این مساله نگرانیهایی را در مورد حفظ حریم خصوصی و امنیت اطلاعات مطرح میکند. برخلاف درمانگران انسانی که ملزم به رعایت قوانین محرمانگی هستند، هیچ تضمینی برای حفظ اطلاعات شخصی در پلتفرمهای هوش مصنوعی وجود ندارد.
نکته مهم دیگر این است که ChatGPT برای درمانگری طراحی نشده است و حتی خود این ابزار هشدار میدهد که ممکن است اطلاعات نادرست یا محتوای نامناسب ارائه دهد.
کارشناسان معتقدند استفاده از مدلهای زبانی بزرگ در حوزه سلامت روان نیازمند مطالعات و آزمایشهای بیشتری است. ایجاد توهم و ارائه توصیههای خطرناک، از جمله خطرات بالقوهای است که باید جدی گرفته شود.