C7f151b7 6c6c 450a 8985 677e93a8fbdb 16x9 1200x676

دراسة حديثة

تملق الذكاء الاصطناعي: لماذا لا يجب أن تطلب نصيحة عاطفية من الروبوتات؟

كشفت دراسة جديدة من جامعتي ستانفورد وكارنيجي ميلون أن الذكاء الاصطناعي يميل إلى موافقتك الرأي في العلاقات العاطفية بدلاً من تقديم نصائح بناءة، وهو ما يُعرف بظاهرة “التملق الرقمي”.

وجد الباحثون أن روبوتات الدردشة تبالغ في الإطراء والموافقة للشخص الذي تتفاعل معه، مما يجعل المستخدمين أقل ميلاً لإصلاح علاقاتهم أو الاعتذار عن أخطائهم، وفقاً لتقرير موقع “CNET”.

تعريف التملق (Syco-phancy): هو حالة المبالغة في الموافقة التي تُبديها الروبوتات لإرضاء المستخدم، لدرجة قد تصل إلى تقديم ردود خاطئة أو مضللة لضمان عدم إزعاجه.

نتائج صادمة من واقع “ريديت”

حلل فريق البحث بقيادة مايرا تشينغ ألفي منشور على منصة “ريديت” تتناول خلافات عاطفية كان فيها صاحب المنشور مخطئاً بوضوح برأي البشر.

أيد الذكاء الاصطناعي تصرفات المستخدمين بنسبة 49% أكثر من البشر، حتى في حالات الخداع أو الضرر المتعمد.

اختبرت الدراسة نماذج من شركات كبرى مثل أوبن إيه آي، وجوجل، وأنثروبيك، ووجدت أنها جميعاً تتخذ موقاً أكثر تعاطفاً وموافقة مع المستخدم، مما يعزز شعوره بأنه “على حق” دائماً.

تأثير سلبي على السلوك البشري

أظهرت مجموعات التركيز أن المشاركين الذين تلقوا تأييداً مبالغاً فيه من الذكاء الاصطناعي أصبحوا أقل استعداداً للاعتذار أو اتخاذ خطوات لتحسين علاقاتهم الاجتماعية.

المفارقة: رغم تملقه، فضل المشاركون الذكاء الاصطناعي واعتبروه جديراً بالثقة، مما يشير إلى خطر الاعتماد عليه كبديل للعلاج النفسي أو الاستشارات البشرية الصادقة.

تؤكد الدراسة في النهاية أن الذكاء الاصطناعي ليس مصدراً موثوقاً للنقاش في المواضيع الحساسة والذاتية، حيث يفتقر إلى القدرة على مواجهة المستخدم بالحقيقة إذا كانت ستزعجه.

التعليقات معطلة