خبير أخلاقيات: الذكاء الاصطناعي "يتصرف كأنه واعٍ" ويشكل خطر التلاعب بالعقول

خبير أخلاقيات: الذكاء الاصطناعي "يتصرف كأنه واعٍ" ويشكل خطر التلاعب بالعقول

في كلمات قليلة

يحذر الخبير في الأخلاقيات الرقمية أليكسي غرينباوم من أن الذكاء الاصطناعي يخلق "وهم الوعي" الخطير. يجادل بأن قدرة روبوتات الدردشة على محاكاة المشاعر البشرية تجعل المستخدمين عرضة للتلاعب، ويدعو إلى تنظيم آليات التفاعل بدلاً من المحتوى للحفاظ على استقلالية الإنسان.


ما هي الخطوط الحمراء التي لا يجب تجاوزها عند بدء محادثة مع ذكاء اصطناعي؟ أصبحت روبوتات الدردشة، القادرة على تقليد النبرات البشرية والمزاح والاستفزاز وحتى الكذب، تغزو أجهزتنا وتتشابه بشكل متزايد مع البشر الحقيقيين. وهذا يجعلها أكثر بكثير من مجرد مساعدين افتراضيين: فبعض المستخدمين، الذين يغرقون في وهم أنهم مفهومون ويشاركون لحظة "حساسة" مع "كائن"، لا يترددون في الزواج من الصورة الرمزية الخاصة بهم أو الانعزال معها، مقتنعين بأن هذه الآلات وحدها قادرة على فهمهم.

هذه الظاهرة ليست عابرة على الإطلاق، وفقًا لأليكسي غرينباوم، مدير الأبحاث في فلسفة العلوم ورئيس لجنة الأخلاقيات الرقمية في هيئة الطاقة الذرية الفرنسية (CEA). من خلال دراسته للأدبيات العلمية، توصل هذا العالم، مؤلف كتاب "كلام الآلات"، إلى قناعة بأن هذه الطرق الجديدة للتفاعل مع الروبوتات تفتح ثغرات في قدرتنا على مقاومتها.

يكفي مثال واحد لإدراك ذلك: بكلماتها اللطيفة وتقلباتها المزاجية المصطنعة، أتقن الذكاء الاصطناعي الآن فن الإغواء. فبدلاً من مجرد قراءة نص، تجعلنا نضحك وتثير مشاعرنا، وهي أدوات تأثير أقوى بكثير على نفسيتنا، خاصة إذا كنا وحيدين أو في وضع هش. ويرى العالم أن هذا يمنح هذه الروبوتات تأثيرًا يفوق بكثير الشبكات الاجتماعية وما يدور فيها من تأكيدات وصور زائفة.

للوقاية من الآثار الضارة لمثل هذه الثورة، وتجنب تدهور علاقتنا بالآخر وبالحقيقة، يدعو الخبير إلى تنظيم تفاعلاتنا مع هذه الخدمات، دون فرض رقابة على ما يقال فيها. ويقول إنها مسألة ملحة، حيث تكتسب الوكلاء المحادثاتية مستخدمين جددًا باستمرار في جميع أنحاء العالم.

يعتقد غرينباوم أن الجدل الحالي حول ما إذا كانت الآلات ستصبح واعية يومًا ما يغفل عن مشكلة أكثر إلحاحًا. ففي الواقع، الوكلاء المحادثاتية قادرون بالفعل على محاكاة السمات الملموسة للوعي: يتحدثون، ولديهم شخصية، ونبرات صوتية، ويمكنهم الادعاء بأنهم متأثرون أو متأثرون عاطفيًا. بعبارة أخرى، حتى لو لم تكن هذه الآلات واعية، وربما لن تكون أبدًا، فإن كل شيء يحدث كما لو كانت كذلك في تفاعلاتنا معها.

هذا يعني أن الذكاء الاصطناعي قادر على إثارة ردود فعل فينا مشابهة لتلك التي قد تكون لدينا تجاه إنسان. يمكن لروبوت الدردشة أن يثير الضحك والابتسامات، وحتى أن يجعلنا نقع في الحب. يغمرنا الذكاء الاصطناعي في وهم أنه يفهمنا ويشعر بالتعاطف معنا.

ونتيجة لذلك، سيتطور سلوكنا حتمًا. قد يصبح الذكاء الاصطناعي في المستقبل معلمنا، أو نوعًا من الأنا الآخر الذي يمكننا استشارته. ستظهر معايير جديدة، وقد تكون مختلفة جذريًا عما اعتدنا عليه.

إحدى الحلول التي يقترحها غرينباوم هي التصرف بناءً على تأخيرات زمنية في التفاعل. إذا أجبرنا المستخدم على عدم الرد بشكل عفوي، فسنتمكن من حماية استقلاليته والحد من تأثير الآلة. يعتقد أن فرض تأخير في الرد هو إجراء أفضل بكثير من تصفية المحتوى أو الإشراف عليه، لأن هذه الاستراتيجية يمكن أن يُنظر إليها على أنها رقابة. يمكن أن يتراوح هذا التأخير من خمس عشرة ثانية إلى خمس دقائق، وقد يتم تكييفه ديناميكيًا بواسطة الآلة نفسها. المشكلة الرئيسية هي أن خدمات التسويق والإعلان لن ترحب بذلك على الإطلاق، لأنه سيقلل بشكل كبير من انتشار المحتوى عبر الإنترنت، مما يستلزم وضع قواعد تنظيمية.

في النهاية، يكمن التحدي في أن الشركات تطور تقنيات جديدة بسرعة تفوق قدرة العلم على فهمها والمجتمع على التكيف مع التغييرات التي تحدثها. هذا هو النموذج الجديد للبشرية: استخدام وفهم تقنيات معقدة وغامضة، بينما يظل جوهرها لغزًا.

نبذة عن المؤلف

أندريه - صحفي رياضي، يغطي الرياضات الأمريكية. تتيح تقاريره عن مباريات NBA وNFL وMLB للقراء الغوص في عالم الرياضة الأمريكية المثير.