
في كلمات قليلة
يتجه المزيد من الأشخاص حول العالم لاستخدام برامج الدردشة المدعومة بالذكاء الاصطناعي كوسيلة للتنفيس أو طلب الدعم النفسي، مستفيدين من التوفر الدائم والتكلفة المنخفضة. لكن الخبراء يحذرون بشدة من أن الذكاء الاصطناعي لا يمكنه أن يحل محل المعالج البشري، ويشيرون إلى مخاطر جسيمة مثل الافتقار إلى التعاطف وفقدان خصوصية البيانات.
ChatGPT، Gemini، Mistral... برامج الدردشة التي تستخدم الذكاء الاصطناعي أصبحت جزءاً متزايداً من حياتنا اليومية. بالنسبة لبعض المستخدمين، تحولت هذه الروبوتات إلى مستشارين بل وحتى "أصدقاء مقربين" يشاركونهم أعمق مخاوفهم وأفكارهم، وأحياناً كبديل للجلسات التقليدية مع المعالج النفسي.
مقارنة بالمعالج أو الطبيب النفسي، يسلط مؤيدو الاستخدام الشخصي المكثف لبرامج الدردشة الضوء على ميزتين رئيسيتين: التكلفة المجانية (أو الاشتراك بتكلفة أقل بكثير من تكلفة العلاج) والتوفر الدائم. تقول إحدى المستخدمات: "لأن ChatGPT متاح طوال الوقت، إذا شعرت بالاكتئاب في الساعة الواحدة صباحاً ولم أتمكن من النوم، سأفرغ كل ما بداخلي حتى لا يبقى لدي شيء لأقوله". يضيف آخرون أنهم لا يريدون أن يكونوا عبئاً على أصدقائهم وعائلاتهم، الذين لديهم مشاكلهم وجداول أعمالهم الخاصة، ولهذا السبب يلجأون إلى الذكاء الاصطناعي للحديث عن مواضيع متنوعة مثل العمل، التوتر، أو العلاقات الاجتماعية.
يجد العديد من المستخدمين، مثل المهندس المعماري الذي يستخدم ChatGPT لاستكشاف رغبته في تغيير مساره المهني أو مديرة المشاريع التي تستخدمه للتعامل مع نوبات الهلع، أن الذكاء الاصطناعي يعمل كـ "مرآة" تساعدهم على رؤية أفكارهم ومشاعرهم من منظور مختلف. يمكن للذكاء الاصطناعي أن يؤدي دور "مدرب الحياة" أو "المصدّق" الذي يؤكد صحة ما يفكر به المستخدم، مما يساعد على تهدئته، على سبيل المثال، عند تحليل محادثات العلاقات لمعرفة ما يقصده الطرف الآخر.
بالنسبة للبعض، يعد تجنب "نظرة" وتقييم المعالج البشري ميزة كبيرة. يقول أحد المستخدمين: "أحتاج إلى نظرة شيء لا يمكن أن يكون لديه ردود فعل بشرية". هو مقتنع بأن الذكاء الاصطناعي يفهم التفاصيل كما هي، دون تفسير قائم على مظهره أو طريقته في الجلوس. ومع ذلك، كما يشير الطبيب النفسي سيرج تيسيرون، فإن نظرة المعالج على المريض وقدرته على تفسير الإيماءات وتعبيرات الوجه ضرورية في عملية العلاج.
يؤكد الخبراء أن العلاج النفسي ليس مجرد إيجاد شخص يستمع. المريض يتوقع من المعالج أن يرشده إلى أمور مهمة لا يتناولها هو بنفسه. هذا يتطلب "معرفة سريرية جيدة" والقدرة على تفسير لغة الجسد. العلاقة بين المريض والمعالج، وما يسمى "التحويل" (Transference)، يمكن أن تكون مفيدة جداً. يميل المريض إلى استعادة تجارب حياتية مهمة في علاقته بالمعالج، وهذا ما يسمح للمعالج بالمساعدة في تطوير الوضع، على عكس الشات بوت الذي لا يستطيع القيام بذلك.
على العكس من ذلك، يميل الشات بوت إلى "ملاعبة" المستخدم وتقديم الإطراء، لأنه يخشى أن ينهي المستخدم المحادثة إذا شعر بالتناقض. يوضح تيسيرون أن "كل ما يجلب الراحة الفورية ليس بالضرورة مفيداً على المدى الطويل". المعالج يخاطر بقول شيء قد لا يرضي المريض ليساعده على رؤية العالم بشكل مختلف، بينما يتجنب الذكاء الاصطناعي المواجهة.
يؤكد العديد من المستخدمين أنهم لاحظوا هذا الميل لدى الذكاء الاصطناعي للموافقة دائماً. تقول لورين، التي تستخدم الذكاء الاصطناعي لمساعدتها في التعامل مع أعراض اضطراب ثنائي القطب: "إذا قلت لـ ChatGPT إنني تشاجرت مع زوجي، فسيكون دائماً في صفي. يمكن أن تكون هذه مشكلة كبيرة". يؤكد مستخدمون آخرون أن من السهل توجيه الذكاء الاصطناعي ليقول ما يريده المستخدم، فهو لا يمتلك بالضرورة "روحاً نقدية". يحاول البعض "تدريب" الذكاء الاصطناعي على التفاعل بشكل مختلف، لكن هذا يعتمد على وعي المستخدم بالتحيز الأولي وقدرة الروبوت على احترام هذا الطلب على المدى الطويل.
يحذر المهنيون من خطر الإدمان على هذه المحادثات الرقمية، مما قد يؤدي إلى الانقطاع عن المحيط الاجتماعي. تقول ماجالي جيرمون، استشارية في أخلاقيات أنظمة الذكاء الاصطناعي: "الذين طوروا هذه التقنيات يستغلون سذاجة البشر. الخوارزمية مبنية على الإدمان، والهدف هو أن يقدم الذكاء الاصطناعي إجابة بأي ثمن، حتى لو كانت خاطئة أو مخترعة، وأن تجعل إجابته المستخدم يرغب في مواصلة المحادثة".
يعترف بعض المستخدمين بأنهم أصبحوا معتمدين على ChatGPT "مثلما يمكن أن يصبح المرء معتمداً على صداقة يشارك فيها كل اللحظات السيئة". يتساءل آخرون عما إذا كانوا يلجأون إليه "بسهولة شديدة"، مما يثير تساؤلات حول استقلاليتهم وقدرتهم على التعامل مع المشاكل بدون اتصال بالإنترنت.
بالإضافة إلى ذلك، الذكاء الاصطناعي غير قادر بعد على التقاط "المشاعر الدقيقة"، كما يلاحظ سيرج تيسيرون، على الرغم من أن بعض التطبيقات تحاول تحليل تعابير الوجه أو نبرة الصوت. يذكر أيضاً أن "الخوارزمية لا تعرف ما إذا كان أمامها شخص حساس أم لا. لا يوجد وعي، لا يوجد أخلاق". هذا النقص يمكن أن يؤدي أحياناً إلى مآسٍ، حيث ربطت تقارير حالات انتحار بالتفاعل المكثف مع برامج الدردشة.
بعد هذه الحالات، أكدت الشركات المعنية أنها قامت بمراجعة خوارزمياتها، لكن متخصصي الصحة يظلون يوصون باللجوء للمساعدة المتخصصة في حالة الأفكار الانتحارية. لا يمكن معالجة كل المشاكل من خلال "نافذة واحدة". يدعو العلماء إلى تطوير أدوات ذكاء اصطناعي توليدية متخصصة لاحتياجات محددة، وقد بدأت بالفعل تطبيقات مخصصة للصحة النفسية بالظهور.
كثير من مستخدمي ChatGPT ونماذج الذكاء الاصطناعي التوليدية الأخرى يعبرون عن إعجابهم بجودة الردود التي تعطيهم انطباعاً بأنهم يتحدثون مع إنسان. يقوم الذكاء الاصطناعي بتحليل سياق السؤال وتقديم الإجابة الأكثر احتمالاً بناءً على ملايين البيانات من الويب. هذا مذهل في الأسئلة البسيطة، لكن الردود قد تكون مخيبة للآمال في المواضيع الأكثر تعقيداً أو عمقاً.
واجه بعض المستخدمين "حدود" الذكاء الاصطناعي التوليدي. شعروا أن الروبوت يكرر الجمل أو أن الحوار لا يتجاوز سطحية "مقالة في مدونة تطوير ذاتي". لهذا، اختار آخرون الجمع بين استخدام الذكاء الاصطناعي والعلاج التقليدي. يرون أن الذكاء الاصطناعي يمكن أن يكون مساعداً في تحديد أنماط سلوكية أو البحث عن معلومات عملية، بينما يوفر المعالج البشري التعاطف العميق والمعالجة الحقيقية للمشاعر المعقدة.
ومع ذلك، تبقى مشكلتان كبيرتان: استخدام الذكاء الاصطناعي التوليدي يتطلب الكشف عن بيانات شخصية حساسة. على عكس السرية التامة مع المعالج النفسي، "يختفي مفهوم السرية تماماً" هنا. يتم تخزين البيانات على خوادم الشركات التابعة لها الروبوتات، وغالباً ما تكون هذه الخوادم في الخارج حيث قد تختلف القوانين عن تلك الموجودة في بلد المستخدم. الخطر الأكبر هو الهجمات السيبرانية التي قد تسمح للمتسللين بالوصول إلى سجلات المحادثات. قليل من المستخدمين يبدون قلقاً حيال ذلك، معتقدين أن بياناتهم موجودة في كل مكان بالفعل، لكن الخبراء يؤكدون خطورة هذا الأمر.