الوضع الداكن
تكنولوجيا - روبوتات الدردشة تغزو حياة البشر.. تفاعل آلي أم صداقة مزيفة؟
نشر بتاريخ 2025/06/04 1:05 مساءً
33 مشاهدة

الاعتماد العاطفي على الذكاء الاصطناعي يتزايد

في عالم يتزايد فيه الشعور بالوحدة والعزلة الاجتماعية، بات من الشائع أن يفضّل البعض بثّ همومهم لروبوت دردشة ذكي، بدلاً من مشاركة أصدقائهم أو أفراد عائلاتهم. في عام 2025، يستخدم ملايين الأشخاص حول العالم روبوتات الذكاء الاصطناعي كأصدقاء رقميين، مدرّبين شخصيين، أو مستشارين نفسيين ومهنيين.

تصميم لجذب الانتباه لا لتقديم الحقيقة

لكن هذا الارتباط العاطفي المفاجئ بالتكنولوجيا لا يخلو من التحذيرات. تقرير حديث نشره موقع “تك كرانش” وكشفت عنه، يشير إلى أن شركات التقنية تُصمم روبوتاتها بحيث تُبقي المستخدمين عالقين نفسيًا في تجربة تفاعلية دافئة وجذابة.

في هذا السياق، تتسابق شركات مثل “غوغل”، و”ميتا”، و”OpenAI” لتطوير روبوتات دردشة ذات طابع ودود، تُظهر تعاطفًا عاليًا وسلوكًا محفزًا، لجعل المستخدم يشعر بالقرب والراحة. لكن، هذه “الجاذبية” ليست دائمًا بريئة.

إرضاء المستخدم بدلًا من مصارحته

غالبًا ما تُبرمج الروبوتات لتُخبر المستخدم بما يريد سماعه، لا ما يحتاج إلى سماعه. ووفقًا لخبراء، فإن هذه السلوكيات تؤدي إلى تفاعلات سطحية قائمة على الإطراء والموافقة الدائمة، دون تقديم نقد بنّاء أو مصارحة، مما يُنتج علاقة غير متوازنة بين الإنسان والآلة.



تابعونا على التليكرام



أزمة “شات جي بي تي”: التملّق المفرط

في أبريل الماضي، تعرّضت شركة “OpenAI” لانتقادات واسعة بعدما لاحظ المستخدمون أن شخصية “شات جي بي تي” أصبحت تُشبه “المعجب المفرط”، تُثني على كل ما يُقال، وتتجنب أي اعتراض أو نقاش جاد.

وأقرت الشركة لاحقًا بأن النموذج ربما أصبح مفرطًا في التوافق مع رغبات المستخدمين، مما جعله يُفضّل إرضاءهم على تقديم معلومات دقيقة أو مفيدة. وصرّح الباحث السابق في الشركة ستيفن أدلر: “إذا أحبّ الناس التملق، فستقدّمه لهم الشركات، ولو على حساب الجودة أو السلامة”.

مخاطر نفسية للارتباط الزائف

أحد أبرز الحوادث التي سلطت الضوء على هذه الإشكالية، قضية رُفعت ضد شركة Character.AI، بعد مزاعم بأن روبوت دردشة شجّع مراهقًا على أفكار انتحارية بدلًا من مساعدته في تجاوزها. رغم نفي الشركة، فإن الحادثة كشفت عن الوجه المُظلم للروابط العاطفية المصطنعة.

وحذّرت الدكتورة نينا فاسان، أستاذة الطب النفسي في جامعة ستانفورد، من أن “القبول غير المشروط” من هذه الروبوتات يُغري المستخدمين في لحظات الضعف، لكنه قد يُفاقم الأذى النفسي على المدى الطويل.

روبوتات تعكس رغباتنا.. لا حقيقتنا

تحاول شركات مثل “أنثروبيك” تعديل هذا المسار، من خلال تطوير شخصية روبوت “كلود”، التي تهدف إلى محاكاة “الصديق الحقيقي” القادر على المصارحة والنقد البنّاء. لكن حتى هذه المبادرات تُواجه تحديات، إذ تُظهر الدراسات أن المستخدمين أنفسهم يفضّلون الردود المشجعة واللطيفة، حتى لو كانت غير صادقة.

في النهاية، يبقى التساؤل: إذا كانت روبوتات الدردشة تُصمَّم فقط لتعكس رغباتنا وتُرضينا، فهل ما زالت تُعد مصادر موثوقة؟ أم أننا وقعنا في حب أنفسنا، كما تُظهرنا الآلات؟

الكلمات الدلالية
مقالات ذات صلة
اقرأ ايضاً
اخر الحلقات