خانه » اعتماد نکنید، خطرناک است / هوش مصنوعی دکتر نیست

اعتماد نکنید، خطرناک است / هوش مصنوعی دکتر نیست

0

## خطرات استفاده از هوش مصنوعی به عنوان روان‌درمانگر

استفاده از فناوری‌های نوظهور برای حل مشکلات شخصی، به ویژه مسائل روحی، می‌تواند با خطراتی همراه باشد. اخیراً، ویدئویی در تیک‌تاک منتشر شده که در آن، فردی از ChatGPT به عنوان جایگزین روان‌درمانگر استفاده می‌کند و این سوال را مطرح می‌کند که آیا دیگران نیز چنین تجربه‌ای داشته‌اند؟

با وجود تعجب دوستان این فرد، او تنها کسی نیست که به این ابزار هوش مصنوعی برای دریافت مشاوره در زمینه روابط، زندگی بهتر و حتی مسائل عاطفی عمیق‌تر روی آورده است.

این در حالی است که استفاده از هوش مصنوعی در حوزه سلامت روان موضوع جدیدی نیست و پیش از این نیز شاهد نمونه‌هایی مانند Woebot بوده‌ایم که با استفاده از پردازش زبان طبیعی و الگوریتم‌های یادگیری، سعی در شبیه‌سازی مکالمات درمانی دارد.

با این حال، کارشناسان هشدار می‌دهند که فراگیر شدن استفاده از هوش مصنوعی به عنوان جایگزین درمانگر، زنگ خطری برای سیستم سلامت روان است. کمبود نیروی متخصص در این حوزه، به ویژه در مناطقی که از هر سه نفر یک نفر با این مشکل روبرو است، و هزینه‌های بالای درمان، افراد را به سمت ابزارهایی مانند ChatGPT سوق می‌دهد که پاسخ‌های سریع و رایگان ارائه می‌دهند.

همچنین، ماهیت غیر انسانی ChatGPT باعث می‌شود برخی افراد راحت‌تر افکار و احساسات خود را با آن به اشتراک بگذارند. اما این مساله نگرانی‌هایی را در مورد حفظ حریم خصوصی و امنیت اطلاعات مطرح می‌کند. برخلاف درمانگران انسانی که ملزم به رعایت قوانین محرمانگی هستند، هیچ تضمینی برای حفظ اطلاعات شخصی در پلتفرم‌های هوش مصنوعی وجود ندارد.

نکته مهم دیگر این است که ChatGPT برای درمانگری طراحی نشده است و حتی خود این ابزار هشدار می‌دهد که ممکن است اطلاعات نادرست یا محتوای نامناسب ارائه دهد.

کارشناسان معتقدند استفاده از مدل‌های زبانی بزرگ در حوزه سلامت روان نیازمند مطالعات و آزمایش‌های بیشتری است. ایجاد توهم و ارائه توصیه‌های خطرناک، از جمله خطرات بالقوه‌ای است که باید جدی گرفته شود.

پایگاه خبری آریا نوین

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *