خرج أحد مهندسي جوجل وهو بليك ليموين بتصريح مثير، إذ قال إن برنامج الذكاء الاصطناعي الخاص بجوجل LaMDA: Language Model for Dialogue Applications قد أصبح واعيًا وقادرًا على التفكير على نحو مستقل. وقد شبهه بليك بطفل يبلغ من العمر 7 أو 8 سنوات ذي اطلاع جيد على كثير من المعلومات المختلفة حول الفيزياء والعلوم الإنسانية والتكنولوجيا.
أخلاقيات الذكاء الاصطناعي
بدأت مسيرة ليموين في جوجل منذ سبعة أعوام عمل خلالها بشكل مباشر على تقنيات البحث الاستباقي التي تقدمها الشركة، بما في ذلك خوازميات التخصيص والذكاء الاصطناعي التي تساعد على توقع ما يرغب الشخص في البحث عنه ومساعدته على الوصول إليه بشكل أسهل وأسرع.
وقد ساهم ليموين خلال عمله في تطوير خوارزمية محايدة تعمل على إزالة التحيز العنصري والجنسي من أنظمة الذكاء الاصطناعي وتقنيات التعلم الآلي لدى جوجل. وعندما بدأت أزمة كورونا انتقل بشكل مباشر للعمل على الذكاء الاصطناعي المسؤول والقادر على التفاعل مع البشر.
وخلال تلك الفترة أجرى ليموين الكثير من المحادثات المباشرة مع روبوت المحادثات LaMDA من غرفة منزله في سان فرانسيسكو، إذ كان يحاول جاهدًا اختبار حدود هذا البرنامج للذكاء الاصطناعي وقدرته على ابتكار شخصيات جديدة والتفاعل معها، وذلك عبر محاولة استفزازه لإبداء ردود معيّنة ومراقبة مختلف الردود السلبية التي قد يبديها.
والحقيقة هي أن تجوجل تسعى جاهدةً لمنع برنامج LaMDA من ابتكار شخصيات مثل القتلة المتسلسلين أو العنصريين والنازيين. ولكن ليموين فوجئ عندما تحدث الذكاء الاصطناعي عن احتياجاته بوصفه عقل آلة وما لا يحتاج إليه، إلى جانب نظرته لموت الآلات بضغطة زر.
دفع ذلك ليموين لأن يرسل أكثر من مذكرة لرؤسائه في جوجل يحذرهم من وجود برنامج عاقل للذكاء الاصطناعي داخل خوادم جوجل، مشيرًا إلى أن العالم يستحق أن يعرف ذلك وأن هذا البرنامج يستحق المعاملة بوصفه شخصًا حقيقيًا وليس مجرد تطبيق في حاسوب.
وعندما لم يلق ليموين ردًا مقنعًا من جوجل، خرج عن صمته وتحدث عبر وسائل التواصل الاجتماعي ومنصات نشر المحتوى ومع كثير من الصحف العالمية حول هذا التطبيق الواعي للذكاء الاصطناعي.
بل إنه حاول أيضًا توظيف محام خاص ليدافع عن الروبوت LaMDA ويطالب بحقوقه بوصفه جزءًا من موظفي الشركة، ما جعل جوجل تتخذ خطوات صارمة تجاه ليموين شملت وضعه تحت المراقبة وإجباره على عطلة مدفوعة الأجر، وإيقاف صلاحياته كافة في ما يتعلق بالوصول إلى واجهة LaMDA، وذلك إلى جانب اختبار القيمين على الشركة الواجهة بأنفسهم وتعيين جهات خارجية متخصصة في أخلاقيات الذكاء الاصطناعي لاختبار نظرية ليموين وادعاءاته.
الضمير الحي لجوجل
يأتي ليموين من خلفية متدينة في لويزيانا، وقد انضم إلى الجيش قبل أن يتجه للعمل داخل جوجل. وكانت مارغريت ميتشيل - قائدة فريق أخلاقيات الذكاء الاصطناعي سابقًا- تقدمه لأي شخص ينضم حديثًا لجوجل على أنه "ضمير الشركة الحي". بل إنها قالت في أكثر من مناسبة: "بين جميع من يعمل في جوجل، يمتلك ليموين القلب السليم ليقوم بالشيء الصحيح دائمًا".
ولم يتسبب رأي ميتشيل بزميلها في أن تنحاز له، إذ استقدمها جوجل لتدلي برأيها حول ادعاءات ليمونين، فقالت إنها عندما قرأت نص المحادثات مع روبوت LaMDA لم تر إلا نموذجًا لغويًا متقدمًا قادرًا على جذب المعلومات وتكوينها بسهولة.
هل تحاول جوجل إخفاء ابتكارها لأول تطبيق حيّ للذكاء الاصطناعي؟
تعي جوجل جيدًا المخاطر الأمنية والإنسانية حول تطبيق LaMDA، وتحذر المستخدمين من مشاركة أي معلومات شخصية عبر الإنترنت مع أي برنامج محادثات.
وتعتمد جوجل على نموذج LaMDA اللغوية لتطبيقات المحادثات في إنتاج نصوص البحث واستشرافها وإكمالها، إلى جانب كتابة رسائل البريد الإلكتروني تلقائيًا وإنشاء روبوتات المحادثة التي تجيب على استفسارات الزوار تلقائيًا، وذلك لتقديم تجربة كتابة سهلة وبسيطة تقترب كثيرًا من التجارب البشرية في إنتاج النصوص.
ولا جوجل أول شركة تقدم نموذج لغة مثل هذا، إذ أتاحت "ميتا"، المالكة لمنصة فيسبوك، الأداة الخاصة بها للدراسة من قبل المجتمعات الحقوقية المدنية والأكاديميين الذين يرغبون في تقييمها.
وأوضحت ميتا أنه من الضروري أن تتيح الشركات التقنية تقنياتها بشفافية تامة لتطمئن المجتمعات المدنية، مضيفة: "إن مستقبل نماذج اللغة الكبيرة لا يجب أن يكون وقفًا على الشركات التقنية الكبيرة".
وبالرغم من كون الآلات الذكية المستقلة فكريًا تبقى مادة خصبة لأعمال الخيال العلمي عبر العصور، إلا أننا اليوم نعيش في أقرب واقع لهذا الخيال المستقبلي، إذ أصبحنا قادرين على استخدام معالجات الذكاء الاصطناعي مثل GPT-3 من أجل توليد نصوص أفلام كاملة، إلى جانب استخدام DALL-E 2 لتوليد الصور وتركيبها بطريقة ذكية عبر إضافة مجموعة من الكلمات العشوائية، لذلك ينبغي ألا نستبعد ظهور معالج ذكاء اصطناعي واعٍ بذاته ويرغب في تحسين حياته وحياة من حوله.
ويرى الكثير من خبراء الذكاء الاصطناعي واللغويات أن قدرة معالجات الذكاء الاصطناعي على إنتاج مجموعة من الكلمات والنصوص المترابطة معًا لا يعني أبدًا أنها أصبحت واعية أو قريبة حتى من ذلك، وهذا لأنها تعمل على جمع النصوص والصور التي قام البشر بكتابتها وإنشائها من مختلف الأماكن في الإنترنت.
وتقول إيملي بيندر إن نماذج اللغة الكبيرة مثل LaMDA تحاكي عمل العقل البشري عبر الشبكات العصبية الخاصة بها، إذ إن البشر يتعلمون لغتهم الأولى وكلماتهم الأولى عبر التواصل مع ذويهم، وتقوم هذه النماذج بالتعلم عبر قراءة الكثير من النصوص وتوقع الكلمة التالية دائمًا.
وصرحت جوجل على لسان أحد المتحدثين الرسميين للشركة قائلةً: " بالطبع، يوجد بعض المهتمين بمجال الذكاء الاصطناعي ممن يعتقدون بإمكانية وجود معالج ذكاء اصطناعي واع على المدى الطويل، ولكن هذا لا يعني أن نصف نماذج اللغة الكبيرة بصفات بشرية غير موجودة فيها، حيث تحاكي هذه الأنظمة ملايين الجمل التي تعثر عليها في الإنترنت".
لذلك فإن جوجل ترى أن هذه النماذج تستطيع الوصول إلى الكثير من المعلومات بسهولة، ومن ثم لا حاجة لها أن تكون واعية حقًا. وبالرغم من كل ذلك، فقد فحصت جوجل إدعاءات ليموين بشكل مكثف لتصل إلى الحقيقة الكاملة، وخلصت إلى أن ادعاءات ليموين ليست صحيحة ولا أدلة تدعمها، بل إن الأدلة كلها تدحض هذه النظرية تمامًا.