تحذير من التعلق بالذكاء الاصطناعي على حساب العلاقات البشرية
- مقالات ذات صلة
- OpenAI تطلق نماذج ذكاء اصطناعي قادرة على التفكير كالبشر
- هل يمكن للذكاء الاصطناعي التنبؤ بالزلازل؟
- تحذير هام لأصحاب الحسابات الإعلانية بالإمارات
أعربت شركة "أوبن إيه آي"، المطورة لنموذج "تشات جي بي تي"، عن قلقها من إمكانية تسبب الصوت الواقعي المتطور المرفق ببرنامج الذكاء الاصطناعي في تعزيز التعلق بالتفاعلات الآلية، ما قد يؤثر سلبًا على العلاقات الإنسانية.
أشار تقرير الشركة إلى أن المستخدمين قد يضعون ثقة غير مبررة في البرامج الآلية، خاصة مع الجودة العالية للصوت في نموذج "جي بي تي- 4 أو" (GPT-4o)، مما يزيد من تأثير التفاعل الآلي.
فيديو ذات صلة
This browser does not support the video element.
وأكدت الشركة في تقريرها أن تقنيات التشبيه بالإنسان، التي تضفي خصائص بشرية على الكيانات غير البشرية مثل نماذج الذكاء الاصطناعي، قد تعزز هذا الخطر. أوضحت الشركة أن القدرات الصوتية تسهم في تعزيز التفاعلات الشبيهة بالإنسان مع البرنامج الآلي.
وقالت الشركة في تقريرها إن تقنيات التشبيه بالإنسان " تتضمن إسناد سلوكيات وخصائص خاصة بالبشر إلى كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي". وأضافت أن هذه التفاعلات قد تجعل المستخدمين أقل ميلاً للتواصل مع البشر، محذرة من تأثيرها على المعايير الاجتماعية. كما أن القدرة على تذكر التفاصيل أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا.
وأشارت الشركة التي تتخذ مقراً في سان فرانسيسكو، في تقريرها إلى أن الدردشة مع الذكاء الاصطناعي كما قد يفعل المرء مع شخص آخر قد تدفع بالمستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية.
وقالت شركة "أوبن إيه آي" إنها لاحظت أن المستخدمين يتحدثون إلى الذكاء الاصطناعي بطرق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمام البرنامج الآلي.
وأشار ألون يامين، المؤسس المشارك لمنصة "كوبي ليكس" لرصد السرقة الأدبية، إلى المخاوف من أن الاعتماد على الخدمة الصوتية في "تشات جي بي تي" قد يؤثر سلبًا على التفاعل البشري والعلاقات. وأكد على ضرورة أن يكون الذكاء الاصطناعي داعمًا وليس بديلاً للتفاعل البشري الفعلي.
وتواصل "أوبن إيه آي" اختبار تأثير القدرات الصوتية في الذكاء الاصطناعي على التفاعل العاطفي مع المستخدمين، مشيرة إلى ضرورة الحذر من التجاوزات المحتملة لتقنية استنساخ الصوت.
وكانت الشركة قد تعرضت لانتقادات بعد استخدام صوت مشابه لصوت الممثلة سكارليت جوهانسون في أحدث روبوت دردشة لها، مما أثار مخاوف من التجاوزات في استنساخ الصوت.
على الرغم من نفي الشركة استخدام صوت جوهانسون، إلا أن الشكوك لا تزال قائمة، خاصة بعد تصريح الرئيس التنفيذي للشركة، سام ألتمان، الذي أشار إلى النموذج الجديد بعبارة "هير" Her عبر وسائل التواصل الاجتماعي، مشيرًا إلى فيلم "Her" الذي يعالج موضوع التعلق العاطفي بالذكاء الاصطناعي.
ع.أ.ج (ا ف ب)