الذكاء الاصطناعي ChatGPT.. هل تسود الآلات عالمنا يوماً ما؟
منذ عقود خلت وإلى اليوم، يتعاظم الخوف البشري من تنامي قدرات الذكاء الاصطناعي AI (Artificial intelligence) وتخطيه حدود فهم الإنسان الذي قام بصنعه.
في هذا السياق أُنتجت العشرات من أفلام الخيال العلمي وكُتبت مئات الكتب والمقالات، محذرة من السيطرة "الوشيكة" لهذه البرامج على العالم، وليس ببعيد عنا ما حدث في مجال الأدب والفن والرسم وكيف اخترقه هذا النوع من البرامج.
فيديو ذات صلة
This browser does not support the video element.
واليوم يدور حديث متزايد حول برنامج ذكاء اصطناعي جديد فاق حدود تصور البشر بشأن درجة التطور التي قد تصل إليها هذه التقنيات يوماً ما.
جدل كبير.. في وقت قصير
البرنامج الجديد أطلق عليه اسم ChatGPT (Generative Pretrained Transformer 3) وهو برنامج لمعالجة اللغة، يتفاعل مع المستخدم من خلال الحوار كتابة على الموقع الإلكتروني الخاص به، وأطلق في تشرين الثاني/ نوفمبر 2022، ويعمل وفق آلية "تعلم الآلة"، لكن ما يظهر على السطح منه يبدو أشبه بقمة جبل الجليد!
البرنامج من إنتاج شركة (أوبن أيه آي OpenAI) التي تأسست عام 2015 بمشاركة كل من إيلون ماسك وجريج بروكمان وإيليا سوتسكيفر ووجسيخ زاريمبا وسام التمان. والبرنامج هو أحدث نماذج تعلم الآلة وقد تم إنشاؤه على رأس عائلة نماذج روبوتات المحادثة وتعلم اللغات والمسماة ( OpenAI's GPT-3)، ويخضع لإشراف دقيق للغاية لتطوير اللغة التي يستجيب بها لطلبات المستخدمين من خلال ما يسمى يتقنيات التعلم التعزيزي ( reinforcement learning techniques) أو التعلم المعزز من ردود الفعل البشرية (RLHF).
وتقول شركة OpenAI على موقعها إن "لقد قمنا بتدريب نموذج يسمى ChatGPT وهو يتفاعل بطريقة المحادثة. يتيح الحوار مع ChatGPT الإجابة على أسئلة المتابعة والاعتراف بأخطائه ورفض الطلبات غير الملائمة، وهو نموذج شقيق لـبرنامج الذكاء الاصطناعي InstructGPT". ويعتبر البرنامج حالياً أشهر نماذج الذكاء الاصطناعي لمعالجة اللغة على الإنترنت.
وبحسب تجارب شخصية لمستخدمين وثقوا استخدامهم للبرنامج الجديد في فيديوهات على المنصات المختلفة وفي تغريدات على تويتر، فإن هناك انطباع عام لدى البرنامج باعتزازه بنفسه وبما يقوم به. ويحب البرنامج أن يصف نفسه بأنه "نموذج AI لمعالجة اللغة"، ما يعني أنه برنامج قادر على فهم لغة الإنسان بالشكل الذي يتم به التحدث بها وكتابتها، مما يسمح له بفهم المعلومات التي تضاف إليه ويتم تغذيته بها بشكل مستمر ودائم والتفكير قبل التلفظ بأي رد على طلبات المستخدم، وهو ما يحدث بسرعة فائقة بالطبع.
وإلى الآن يكتفي ChatGPT بالردود المكتوبة ولا يقوم بإنتاج مواد صوتية أو بصرية، وذلك على عكس نماذج أخرى شهيرة منها الروبوت صوفيا Sophia the Robot وأيضاً منشئ الصور Dall-E، إلا أنه يعتبر ذو قدرة خارقة مقارنة بكل برامج الذكاء الاصطناعي من حيث فهمه العميق للغة المكتوبة والمنطوقة، الأمر الذي يمنحه نطاقًا واسعًا للغاية من القدرات، بدءًا من كتابة تعليقات على القصائد الشعرية مروراً بنظريات العوالم الموازية وصولاً إلى شرح ميكانيكا الكم بعبارات بسيطة أو كتابة أوراق بحثية ومقالات كاملة.
ويقول مستخدمون إن البرنامج استجاب لطلبات خاصة بكتابة الموضوع بشكل ساخر وأنه يستطيع فهم الكثير من الأمور المعقدة الواردة في الأسئلة وأن قوته الحقيقية تكمن في سرعة استجابته وفهمه للغة المستخدمة في الأسئلة بشكل مثير للإعجاب منتجاً مقالات كاملة بأسلوب جيد للغاية، لكن آخرين قالوا إن هناك بعض الموضوعات مثل الأحداث العالمية الأخيرة أو الموضوعات التي لا يوجد بشأنها الكثير من المعلومات والتي قوبلت من جانب البرنامج بإنتاج مقالات أو ردود خاطئة أحياناً ومشوشة في أحيان أخرى.
أيضاً، وبحسب تجارب مستخدمين، فإن البرنامج يمتنع عن الإجابة عن الأسئلة عندما تشكل الردود نوعاً من الخطر سواء للسائل أو للمجتمع بوجه عام ويتوقف حينها عن المساعدة في مثل هذه الطلبات الخطرة بل إنه يوقفك عن طرح مزيد من الأسئلة بشأن تلك الموضوعات "الضارة".
قد يبو الأمر في ظاهره بسيطاً.. برنامج تطرح عليه الأسئلة فيقوم بالبحث ويعود إليك بالنتائج بسرعة.. لكن تقنية القيام بذلك أكثر تعقيدًا مما قد تبدو عليه.
تم تدريب النموذج ChatGPT باستخدام قواعد البيانات النصية من الإنترنت، وشمل ذلك كميات ضخمة من الغيغا بايتس من البيانات التي تم الحصول عليها من الكتب ونصوص الويب وويكيبيديا والمقالات وغيرها بمعدل وصل إلى نحو 300 مليار كلمة أدخلت في نظامه.
وكنموذج لغوي يعمل على الاحتمالات، فإنه بمقدوره أن يخمن تتابع وترتيب الكلمات بشكل منطقي بحسب اللغة المستخدمة. وللوصول إلى مرحلة حيث يمكنه القيام بذلك، مر النموذج بمرحلة اختبار خاضعة للإشراف البشري، فتمت تغذيته بمدخلات مختلفة منها على سبيل المثال سؤال "ما لون خشب الشجرة؟". بالطبع كان لدى الفريق مخرجات صحيحة متعددة، وإذا لم تتضمن الإجابة واحدة منها يقوم الفريق بإدخال الإجابة الصحيحة مرة أخرى في النظام، ويقوم بتعليم البرنامج الإجابات الصحيحة ويساعده في بناء معرفته شيئاً فشيئاً، وهو ما يشبه تعليم الطفل.
تأتي المرحلة الثانية وهي تقديم إجابات متعددة على سؤال واحد بالتعاون مع أحد أعضاء الفريق والذي يقوم بتصنيف الإجابات من الأفضل إلى الأسوأ، ويدرب الشخص المسؤول البرنامج على عقد المقارنات وتقييم جودة الإجابات.
والحقيقة فإن ما يميز هذا النموذج وهذه التكنولوجيا عن غيرها هو أنها تستمر في التعلم بشكل لا ينقطع مع تحسين فهمها للأسئلة باستمرار لتصبح يوماً ما الجهة التي تعرف كل شيء عن كل شيء!
نماذج أخرى من الذكاء الاصطناعي في تعلم اللغة
في حين أن GPT-3 قد صنع اسمًا لنفسه من خلال قدراته اللغوية الآخذة في التطور باستمرار، إلا أنه ليس الذكاء الاصطناعي الوحيد القادر على القيام بذلك. تصدر نموذج LaMDA من Google عناوين الصحف عندما طُرد مهندس من غوغل Google لأنه وصفه بأنه "واقعي للغاية لدرجة أنه اعتقد أنه لديه وعي شخصي منفصل وخاص به وليس مجرد برنامج".
هناك أيضًا الكثير من الأمثلة الأخرى أحدها من إنتاج أمازون Amazon وآخر من إنتاج جامعة ستانفورد Stanford، وحظيت جميعها باهتمام أقل بكثير من OpenAI أو Google LaMDA لكنها لم تكن بهذا القدر من التطور الذي يتمتع به GPT-3، كما أن معظم هذه النماذج غير متاحة للجمهور، لكن OpenAI بدأت في عمل ذلك حتى خلال مراحل الاختبار الأولية، فيما يتوفر LaMDA من Google لمجموعات محددة وبقدرات محدودة بهدف الاختبار.
معايير أخلاقية
كلما ذكر "الذكاء الاصطناعي"، ذُكرت معه "المعايير الأخلاقية" و"المخاوف من تعدي الحدود". ويدرك خبراء أخلاقيات الذكاء الاصطناعي مدى حساسية أن توضع تقنية شديدة التقدم وسريعة التطور بهذا الشكل بين أيدي الجمهور بلا حساب أو رقابة، وما يمكن أن ينتج عن ذلك من مشكلات متعددة خاصة إذا ما تُرك المجال أمام البرنامج لتعليم نفسه بنفسه دون مراقبة من القائمين على تشغيله وتطويره.
نظرًا لأن النظام يتم تدريبه بشكل أساسي من خلال المواد الموجودة على الإنترنت، فإنه يمكنه التعرف على التحيزات والصور النمطية والآراء العامة، ما يعني أنك قد تجد أحيانًا نكاتًا أو صورًا نمطية حول مجموعات معينة أو شخصيات سياسية بناءً على ما تطلبه.
كما أن تغذية البرنامج من خلال مواد الإنترنت قد تتسبب مع الوقت في ترسيخ صورة معينة عن مجموعات أو أقليات بعينها، كما قد يتسبب التعرض المستمر للأخبار الكاذبة والزائفة ونظريات المؤامرة في مشكلات تتعلق بطبيعة المخرجات التي ينتجها البرنامج.
ولهذا السبب ولغيره، وضعت OpenAI تحذيرات لما يطلبه المستخدمون من البرنامج. فلو أنك سألت مثلاً عن كيفية التنمر على شخص ما، سيتم إخبارك بأن التنمر أمر سيء. ولو سألت عن قصة دموية، سوف يغلق النظام مساحة الدردشة معك، وينطبق الشيء نفسه على الطلبات الخاصة بتعلم كيفية التلاعب بالناس أو صنع أسلحة خطرة.
ماذا يُخفي المستقبل؟
كان لدى شركة OpenAI عدد من المستثمرين المشهورين ساهموا في صعودها إلى الشهرة كما ذكرنا آنفاً، كما سرت أنباء عن اعتزام مايكروسوفت استثمار نحو 10 مليارات دولار في OpenAI والآن تتطلع الشركة إلى إدماج تطبيق ChatGPT في محرك البحث Bing الخاص بها، وسط منافسة شديدة من محرك البحث الأشهر غوغل Google.
في العام الماضي، احتفظ Bing بأقل من 10 في المائة من عمليات البحث على الإنترنت في العالم. على الرغم من أن هذا يبدو ضئيلًا، ويؤكد على إحكام Google قبضته على السوق، لكنه أيضاً يشير إلى مدى أهمية Bing كأحد أكثر الخيارات شيوعًا.
مع وجود خطط لإدماج ChatGPT في نظامه، يأمل محرك البحث Bing في فهم استفسارات المستخدمين بشكل أفضل وتقديم محرك بحث أكثر حوارية. لكن ليس من الواضح إلى الآن ما الذي وصلت إليه جهود مايكروسوفت في هذا الإطار، إلا أنه من المحتمل أن تبدأ الاختبارات قريباً، وسط مخاوف من أن تتأثر نتائج البحث عبر Bing بالتحيزات المسبقة التي قد يقع فيها الذكاء الاصطناعي ChatGPT الأمر الذي قد يسفر عن نتائج غير دقيقة أو غير مرضية للمستخدمين.
عماد حسن