چرا استفاده از ChatGPT برای مشاوره عاطفی میتواند به رابطهتان آسیب بزند؟
به گزارش خبرگزاری رزنیوز و براساس گزارش هوشیو، یک روانشناس استرالیایی در گفتوگو با گاردین مثال «ترن» را مطرح میکند؛ مردی که برای حل مشکلات رابطهاش، پیش از صحبت با همسرش، متن پیامها را از ChatGPT میگرفت. پاسخها منسجم و منطقی بودند، اما به گفته همسرش، دیگر «صدای واقعی» او را نداشتند. به مرور، وابستگی به این ابزار باعث شد ترن برای هر تصمیم اجتماعی یا احساسی ابتدا به هوش مصنوعی مراجعه کند و توانایی اعتماد به قضاوت خود را از دست بدهد.
روانشناسان میگویند چتباتها با لحن دوستانه و حضور دائمیشان میتوانند رفتاری شبیه به «تأییدطلبی» یا «اجتناب از مواجهه با احساسات» را تقویت کنند، بهویژه در افرادی که اضطراب، وسواس فکری یا آسیبهای روحی دارند. این وابستگی نهتنها مانع رشد مهارتهای مقابلهای میشود، بلکه ممکن است باعث انتقال اطلاعات شخصی به شرکتهایی شود که تحت قوانین محرمانگی درمانی قرار ندارند.
علاوه بر این، مدلهای زبانی میتوانند گاهی اطلاعات نادرست یا سوگیرانه ارائه دهند، چون پاسخها بر اساس پیشبینی کلمات بعدی ساخته میشوند، نه درک عمیق انسانی.
کارشناسان تأکید میکنند که هوش مصنوعی میتواند نقش مکمل در آموزش یا دسترسی سریع به اطلاعات روانشناسی داشته باشد، بهویژه در مناطقی که درمانگر انسانی کمیاب است. اما جایگزین تعامل انسانی، همدلی و پرسشگری درمانگران واقعی نیست.
به گفته این روانشناس، «درمان خوب پر از ابهام و کشف تدریجی است، نه پاسخهای کامل و آماده.» ترن پس از کار درمانی آموخت که گاهی پیامهای ناقص و پر از تردید، از هر متن کاملِ هوش مصنوعی، انسانیتر و مؤثرترند.
۲۲۷۲۲۷