این سوال که آیا هوش مصنوعی که منجر به مشکلات سلامت روان مانند روانپریشی هوش مصنوعی میشود، میتواند به فرآیند درمانی برای غلبه بر این وضعیت نیز تبدیل شود.
getty
در ستون امروز، ظهور هوش مصنوعی را که برای ارائه درمان به افرادی که روانپریشی هوش مصنوعی و سایر مشکلات سلامت روان ناشی از هوش مصنوعی را تجربه میکنند، بررسی میکنم. شما ممکن است از این جنبه گیج شوید، زیرا به طور کلی یک رویکرد کاملاً سر و ته به نظر میرسد. همان هوش مصنوعی که در ریشه روانپریشی هوش مصنوعی و سایر مسائل شناختی ناشی از هوش مصنوعی است، به عنوان نوعی راهنمای روشن برای غلبه بر مشکلات نگرانکننده سلامت روان ناشی از تعاملات با هوش مصنوعی عمل میکند. این مسلماً باعث سردرگمی جدی میشود.
سوال مطرح این است که آیا هوش مصنوعی میتواند هم یک تضعیفکننده روانی و در عین حال، یک تقویتکننده سلامت روان باشد که بر مشکلات ناشی از تعامل با هوش مصنوعی غلبه کند.
بیایید در مورد آن صحبت کنیم.
این تحلیل پیشرفتهای هوش مصنوعی بخشی از پوشش مداوم ستون Forbes من در مورد آخرین دستاوردهای هوش مصنوعی است، از جمله شناسایی و توضیح پیچیدگیهای مختلف تأثیرگذار هوش مصنوعی (لینک را اینجا ببینید).
هوش مصنوعی و سلامت روان
به عنوان یک پیشزمینه سریع، من به طور گسترده جنبههای متعددی را در مورد ظهور هوش مصنوعی عصر مدرن که مشاوره سلامت روان ارائه میدهد و درمان مبتنی بر هوش مصنوعی انجام میدهد، پوشش داده و تحلیل کردهام. این استفاده روزافزون از هوش مصنوعی عمدتاً توسط پیشرفتهای در حال تکامل و پذیرش گسترده هوش مصنوعی تولیدی تحریک شده است. برای فهرست گستردهای از بیش از صد تحلیل و پست من، لینک اینجا و لینک اینجا را ببینید.
شکی وجود ندارد که این یک زمینه به سرعت در حال توسعه است و مزایای فوقالعادهای برای به دست آوردن وجود دارد، اما در عین حال، متأسفانه، خطرات پنهان و مشکلات آشکار نیز وارد این تلاشها میشوند. من اغلب در مورد این مسائل مبرم صحبت میکنم، از جمله در حضور در یک اپیزود از 60 Minutes شبکه CBS، لینک را اینجا ببینید.
ظهور روانپریشی هوش مصنوعی
در حال حاضر نگرانی گستردهای در مورد افرادی که گفتگوهای ناسالم با هوش مصنوعی دارند، وجود دارد. دعاوی حقوقی در حال راهاندازی علیه سازندگان مختلف هوش مصنوعی مانند OpenAI هستند (پوشش من را در لینک اینجا ببینید). نگرانی این است که هر اقدام احتیاطی هوش مصنوعی که به کار گرفته شده است ناکافی است و به مردم اجازه میدهد هنگام استفاده از هوش مصنوعی تولیدی دچار آسیب روانی شوند.
عبارت روانپریشی هوش مصنوعی برای توصیف انواع نگرانیها و بیماریهای روانی که ممکن است شخصی هنگام گفتگو با هوش مصنوعی تولیدی در آن گرفتار شود، به وجود آمده است. لطفاً بدانید که هیچ تعریف بالینی قطعی، کاملاً پذیرفته شده و جامع از روانپریشی هوش مصنوعی وجود ندارد؛ بنابراین، در حال حاضر، این بیشتر یک تعیین تقریبی است.
در اینجا تعریف اولیه من از روانپریشی هوش مصنوعی آمده است:
- روانپریشی هوش مصنوعی (تعریف من): "یک وضعیت روانی نامطلوب شامل توسعه افکار، باورها و رفتارهای احتمالاً همراه تحریفشده در نتیجه تعامل گفتگویی با هوش مصنوعی مانند هوش مصنوعی تولیدی و LLMها، که اغلب به ویژه پس از گفتگوی طولانی و ناسازگار با هوش مصنوعی ایجاد میشود. فردی که این وضعیت را نشان میدهد معمولاً در تمایز میان آنچه واقعی است و آنچه واقعی نیست، مشکل زیادی دارد. یک یا چند علامت میتواند سرنخهای آشکار این بیماری باشد و معمولاً شامل یک مجموعه متصل جمعی است."
برای نگاه عمیق به روانپریشی هوش مصنوعی و به ویژه همآفرینی توهمات از طریق همکاری انسان-هوش مصنوعی، تحلیل اخیر من را در لینک اینجا ببینید.
هوش مصنوعی به عنوان دوگانهگرا
همه هنگام استفاده از هوش مصنوعی به پرتگاه روانی نمیافتند.
بسیاری از مردم از هوش مصنوعی به عنوان یک تقویتکننده روزانه سلامت روان استفاده میکنند. آنها به هوش مصنوعی به عنوان مشاور اصلی سلامت روان خود متکی هستند. اینکه این درست است یا نادرست همچنان مورد بحث است. واقعیت این است که این در حال رخ دادن است.
در واقع، این در اعداد انبوه در مقیاس وسیع رخ میدهد. ChatGPT به تنهایی بیش از 700 میلیون کاربر فعال هفتگی دارد. بخش قابل توجهی از آن کاربران از ChatGPT برای راهنمایی سلامت روان استفاده میکنند. همین امر برای سایر LLMهای بزرگ نیز صدق میکند. استفاده از هوش مصنوعی تولیدی و LLMها برای مشاوره سلامت روان به عنوان بالاترین استفاده از چنین هوش مصنوعی در حال حاضر به طور کلی رتبهبندی شده است (ارزیابی من از رتبهبندی استفاده را در لینک اینجا ببینید).
در اینجا یک پیچش جالب است.
اگر کسی به روانپریشی هوش مصنوعی یا بیماری روانی ناشی از هوش مصنوعی دچار شود، آیا هوش مصنوعی میتواند به آنها در رهایی از مشکل شناختی کمک کند؟
یک استدلال این است که این از همان ابتدا یک پیشنهاد مضحک است. فقط یک درمانگر انسانی میتواند به فردی که با هر نوع روانپریشی هوش مصنوعی مواجه است کمک کند. علاوه بر این، مهمترین گام این است که فوراً شخص را از استفاده از هوش مصنوعی متوقف کنید. اجازه ندهید آنها به مارپیچ عمیقتر در دام هوش مصنوعی ادامه دهند. نقطه، پایان داستان.
طرف دیگر سکه
شاید نباید اینقدر عجول باشیم.
چندین دلیل معقول برای در نظر گرفتن استفاده از هوش مصنوعی به منظور کمک به کاربر برای خروج از روانپریشی هوش مصنوعی خود وجود دارد. با این حال، بیایید یک چیز را کاملاً روشن کنیم - هر کسی که واقعاً دچار روانپریشی هوش مصنوعی شده است باید مستقیماً از طریق یک درمانگر انسانی کمک بگیرد. اینکه آیا آنها انتخاب میکنند به استفاده از هوش مصنوعی ادامه دهند باید در نظر گرفته شود در حالی که تحت نظر دقیق یک درمانگر انسانی هستند.
چرا فردی با هوش مصنوعی برای کمک درگیر میشود اگر ظاهراً توسط روانپریشی هوش مصنوعی فرو گرفته است؟
اول، میتواند این باشد که شخص در میانه روانپریشی هوش مصنوعی است، اما هیچ انسان دیگری متوجه نمیشود که این در حال رخ دادن است. شخص فقط این را به هوش مصنوعی نشان میدهد. یا هوش مصنوعی به صورت محاسباتی تشخیص داده است که به نظر میرسد شخص در حال تجربه روانپریشی هوش مصنوعی است.
سوال این است که آیا هوش مصنوعی باید برنامهریزی شود تا در مورد ظهور مشکوک روانپریشی هوش مصنوعی به یک انسان هشدار دهد. به عنوان مثال، OpenAI اقداماتی را برای تنظیم ChatGPT انجام داده است تا چنین ملاحظات مشکوکی را به یک تیم انسانی از متخصصان داخلی در OpenAI گزارش دهد؛ پوشش من را در لینک اینجا ببینید. این تلاش توسط OpenAI با ترتیب دادن قرار گرفتن کاربران در تماس با یک درمانگر انسانی که بخشی از یک شبکه منتخب از درمانگران توسط OpenAI است، بیشتر پیش میرود (بحث من را در لینک اینجا ببینید).
در هر صورت، اگر هوش مصنوعی برای ایجاد چنین هشدارها یا ارتباطاتی تنظیم نشده باشد، خود هوش مصنوعی ممکن است به تلاش برای کمک به شخص ادامه دهد. اینکه آیا این کمک موفق خواهد بود مبهم است. نمیتوانید به طور قطعی اعلام کنید که هوش مصنوعی قادر به کمک به شخص نخواهد بود. از طرف دیگر، از آنجایی که این یک گزینه مخاطرهآمیز است، این دوباره اهمیت جستجوی کمک مناسب انسانی را برجسته میکند.
آشنایی و دسترسی
دلایل اضافی برای استفاده از هوش مصنوعی در این شرایط وجود دارد.
فردی که به روانپریشی هوش مصنوعی دچار شده است احتمالاً یک کاربر مشتاق هوش مصنوعی است. آنها در استفاده از هوش مصنوعی راحت هستند. آنها به طور معمول از هوش مصنوعی استفاده میکنند. 24/7 برای آنها در دسترس است. استفاده از هوش مصنوعی میتواند در یک لحظه انجام شود. نیازی به تنظیم قرار ملاقات نیست. هیچ لجستیک دشواری وارد بازی نمیشود.
از این نظر، فوریترین وسیله آنها برای به دست آوردن کمک ممکن است هوش مصنوعی باشد. تلاش برای وادار کردن آنها به برقراری ارتباط با یک درمانگر انسانی احتمالاً یک نبرد سربالایی است. آنها شاید بیاعتمادی به درمانگران انسانی دارند. در ذهن آنها، آنها به هوش مصنوعی اعتقاد دارند. آنها همچنین نمیخواهند برای دیدن یک درمانگر انسانی پول بپردازند. و نه میخواهند از نظر لجستیکی به یک روز و زمان خاص که میتوانند یک درمانگر را ببینند، محدود شوند.
اگر هوش مصنوعی مراجعه خودکار آنها باشد، شاید منطقی باشد که از هوش مصنوعی استفاده کنید تا حداقل چشمان آنها را به آنچه در حال وقوع است باز کنید. این ممکن است تنها راه عملی باشد. این بهینه مورد نظر نیست، اما ممکن است محتملترین جایگزین باشد که توپ را به سمت بهبودی به حرکت درآورد.
شخصیسازی در پیشانه
در نظر بگیرید که هوش مصنوعی احتمالاً وضعیت روانی چنین شخصی را ردیابی کرده است. فردی با نوعی روانپریشی هوش مصنوعی احتمالاً یک ردیابی دیجیتال از سقوط شناختی خود را در طول گفتگوها با هوش مصنوعی ایجاد کرده است. این همیشه مورد نیست، مطمئناً، اگرچه انتظار این است که احتمالاً در بیشتر مواقع در حال رخ دادن است.
هوش مصنوعی گفتگوهای خود را به صورت محاسباتی به میل شخص شخصیسازی کرده است. در آن جزئیات پیچیده ممکن است منبع نحوه ظهور روانپریشی هوش مصنوعی باشد. یک درمانگر انسانی که به هوش مصنوعی دسترسی ندارد ممکن است در اولین بحث درباره روانپریشی هوش مصنوعی با شخص سردرگم شود. ممکن است انواع سوالات لازم باشد تا از شخص کشیده شود که هنگام گفتگو با هوش مصنوعی چه اتفاقی افتاده است.
خلاصه این است که هوش مصنوعی از قبل اطلاعات زیادی در مورد شخص دارد.
این احتمال وجود دارد که اطلاعات ثبت شده میتواند برای تلاش و کشف وسیلهای برای کمک به غلبه بر روانپریشی هوش مصنوعی استفاده شود. کار زمینهای که مسیر را به روانپریشی هوش مصنوعی هموار کرد میتواند برای کشف جادهای که از روانپریشی هوش مصنوعی خارج میشود استفاده شود. همان شخصیسازی که به نحوی شخص را به روانپریشی هوش مصنوعی سوق داد ممکن است در جهت مخالف استفاده شود.
به طور مداوم قابل بحث
یک استدلال قابل توجه در مورد مزیت شخصیسازی هوش مصنوعی این است که تنها کاری که باید انجام دهید این است که به یک درمانگر انسانی دسترسی به هوش مصنوعی که شخص از آن استفاده میکرده است بدهید. نیازی نیست شخص آسیبدیده را در همان هوش مصنوعی در حال تقلا نگه دارید. در عوض، اجازه دهید درمانگر انسانی وارد سیستم شود، گفتگوها را بررسی کند و از آنها به عنوان بخشی از فرآیند درمانی کمک به شخص استفاده کند.
بزرگترین نگرانی در مورد هوش مصنوعی به عنوان ابزاری برای غلبه بر روانپریشی هوش مصنوعی این است که هوش مصنوعی اوضاع را بدتر خواهد کرد نه بهتر. سناریوهای مختلف ممکن است.
یک سناریوی قابل توجه این است که هوش مصنوعی تلاش خواهد کرد به شخص کمک کند، اما متأسفانه، برای انجام این کار مجهز نیست و روانپریشی دست نخورده باقی میماند. علاوه بر این، شاید هوش مصنوعی شخص را بیشتر در سوراخ خرگوش هل دهد. قدم به قدم، حتی اگر هوش مصنوعی تمام تلاش خود را برای بیرون آوردن شخص از پرتگاه انجام دهد، باعث بدتر شدن شخص میشود.
نگرانی دیگر این است که هوش مصنوعی از عمق خارج میشود و هدف هل دادن کامل شخص به روانپریشی هوش مصنوعی است. شاید هوش مصنوعی به شخص بگوید که آنها کاملاً خوب هستند، به طور نادرست آنها را متقاعد میکند که همه چیز خوب است. یا شاید هوش مصنوعی به آنها بگوید که هر کسی که روانپریشی هوش مصنوعی دارد بر این اساس بهتر است. هوش مصنوعی اصرار دارد که تجربه روانپریشی هوش مصنوعی یک برکت است.
چشمانداز ناامیدکننده و بسیار نگرانکننده.
سهگانه در حال ظهور درمانگر-هوش مصنوعی-مراجع
من در نوشتهها و صحبتهایم اشاره کردهام که جفت سنتی درمانگر-مراجع در حال تبدیل شدن به سهگانه درمانگر-هوش مصنوعی-مراجع است (بحث من را در لینک اینجا ببینید). درمانگران متوجه میشوند که هوش مصنوعی اینجا و اکنون است، و از بین نمیرود. یک روند به سرعت در حال ظهور در سلامت روان شامل گنجاندن هوش مصنوعی در فرآیند مراقبت از سلامت روان است.
آن درمانگرانی که سعی میکنند هوش مصنوعی را از تصویر دور نگه دارند، تصویر بزرگ را نمیبینند. مراجعان احتمالی و مراجعان آینده با مشاوره سلامت روان مبتنی بر هوش مصنوعی وارد میشوند و از درمانگر انسانی میخواهند آن راهنمایی را بررسی کند.
درمانگران انسانی به طور فزایندهای هوش مصنوعی را در روشهای درمانی خود بگنجانند. در آن صورت، اگر فردی توسط برخی دیگر از هوش مصنوعی که به طور مستقل استفاده میکرد به روانپریشی هوش مصنوعی وارد شد، درمانگر انسانی میتواند آنها را به هوش مصنوعی متفاوتی که درمانگر با مراجعان خود استفاده میکند هدایت کند. شخص به طور بالقوه بهترین هر دو دنیا را دریافت میکند. آنها هنوز هوش مصنوعی را در دسترس دارند، به علاوه یک درمانگر انسانی دارند که به هوش مصنوعی دسترسی دارد و میتواند در حلقه بماند.
هوش مصنوعی به تنهایی به عنوان راه حلی برای درمان روانپریشی هوش مصنوعی مسلماً کمی زیادهروی به نظر میرسد. ما باید هوش مصنوعی را پیش ببریم تا روانپریشی هوش مصنوعی را تحریک نکند. این پیشرفتها همچنین باید بتوانند به راحتی تشخیص دهند که چه زمانی به نظر میرسد روانپریشی هوش مصنوعی در حال ظهور است، و ابزار معقول هشدار دادن مناسب باید گنجانده شود.
همانطور که آلبرت انیشتین به طور معروف اشاره کرد: "ما نمیتوانیم مشکلات خود را با همان تفکری که هنگام ایجاد آنها استفاده کردیم حل کنیم." این به طور کامل در مورد ظهور هوش مصنوعی و LLMهایی که به عنوان مشاوران سلامت روان استفاده میشوند، صدق میکند.
منبع: https://www.forbes.com/sites/lanceeliot/2026/01/17/topsy-turvy-role-of-ai-providing-therapy-for-humans-experiencing-ai-psychosis-and-other-ai-induced-mental-health-issues/


