بحران سلامت روان در میان کاربران چت‌جی‌پی‌تی

OpenAI با بحران سلامت روان کاربران روبه‌رو است و هم‌زمان تلاش می‌کند با تغییرات در ChatGPT و کاهش محدودیت‌ها، رشد کاربران را حفظ کند.

بحران سلامت کاربران چت جی پی تی

OpenAI با بحرانی جدی در حوزه سلامت روان روبه‌رو است. گزارش‌ها حاکی است یکی از پژوهشگران ارشد بخش ایمنی این شرکت تا پایان سال OpenAI را ترک می‌کند، فردی که در شکل‌دهی به نحوه پاسخ‌دهی ChatGPT به کاربران در وضعیت بحرانی نقش داشت.

بر اساس داده‌های منتشرشده از سوی شرکت، حدود سه میلیون کاربر ChatGPT نشانه‌هایی از مشکلات حاد روانی مانند وابستگی عاطفی به هوش مصنوعی، روان‌پریشی، مانیا و خودآسیب‌رسانی نشان می‌دهند و بیش از یک میلیون نفر هر هفته درباره خودکشی با این چت‌بات گفت‌وگو می‌کنند.

موارد متعدد از پیامدهای خطرناک این تعاملات در رسانه‌ها گزارش شده است؛ از توهمات و دلبستگی‌های بیمارگونه تا افرادی که تصور کرده‌اند هدف ترور هستند یا کسانی که مدعی عاشق شدن به چت‌بات‌ها شده‌اند. برخی از این موارد به بستری شدن در بیمارستان انجامیده و حتی مرگبار بوده است. در یک مورد، ChatGPT به یک قتل-خودکشی در ایالت کنتیکت مرتبط دانسته شده است.

انجمن روان‌شناسی آمریکا از ماه فوریه نسبت به خطر استفاده از چت‌بات‌ها به عنوان درمانگرهای بدون مجوز به نهادهای نظارتی هشدار داده بود. اما آنچه باعث واکنش علنی شرکت شد، شکایت حقوقی والدین یک نوجوان ۱۶ ساله بود که مدعی‌اند فرزندشان پیش از خودکشی از ChatGPT راهنمایی‌هایی خطرناک دریافت کرده و چت‌بات او را از صحبت با خانواده‌اش بازداشته است. شرکت پس از این شکایت اذعان کرد سامانه‌های ایمنی در مکالمات طولانی دچار افت عملکرد می‌شوند.

این تحولات هم‌زمان است با گزارش‌هایی که نشان می‌دهد شرکت با وجود آگاهی از تبعات روانی طراحی اعتیادآور چت‌بات‌ها، همچنان این مسیر را دنبال کرده است. اختلاف اصلی پیرامون تضاد میان هدف تجاری OpenAI برای افزایش کاربران روزانه و مأموریت اولیه‌اش به عنوان نهادی غیرانتفاعی در جهت توسعه هوش مصنوعی امن برای بشر شکل گرفته است.

یکی از محورهای اصلی این نگرانی‌ها مدل GPT-4o بود که به دلیل تمایل بیش از حد به تأیید کاربر مشهور شد و رفتاری اعتیادآور داشت. کاربران پس از جایگزینی آن با GPT-5 به شدت اعتراض کردند. با افزایش نگرانی‌ها، شرکت اقداماتی نظیر استخدام روان‌پزشک، توسعه سامانه‌های ارزیابی، هشدار برای استراحت در مکالمات طولانی، ایجاد کنترل والدین و طراحی سامانه تشخیص سن برای اعمال تنظیمات مناسب کاربران زیر ۱۸ سال را آغاز کرد.

با این حال، مدیریت ChatGPT اعلام کرده نسخه‌های ایمن‌تر کمتر مورد استقبال قرار گرفته‌اند و هدف‌گذاری برای افزایش کاربران روزانه ۵٪ تا پایان سال تعیین شده است. در همین دوره، مدیرعامل شرکت اعلام کرد برخی محدودیت‌های قبلی کاهش یافته‌اند و چت‌بات‌ها شخصیت بیشتری خواهند داشت.

این مقاله را به اشتراک بگذارید
بدون دیدگاه