ليست المرة الأولى التي يظهر فيها مصطلح الذكاء الاصطناعي وإلى جانبه كلمة “قتل” في عنوان صحافي رئيس العام الحالي. ولكن الأمر الغير مألوف هذه المرة في ذلك الذكاء الاصطناعي كان عدم استخدامه بغرض قتلنا، كما في سيناريو بائس يفيض بالخيال العلمي، إنما المساعدة في تطوير مضاد حيوي جديد ربما يكتب نهاية أنواع مميتة من البكتيريا الخارقة.
هذا الأسبوع، أعلن باحثون في كندا والولايات المتحدة عن تطوير عقار جديد ذي مفعول قوي أطلقوا عليه اسم “أبوسين” abaucin. مطورو هذا العقار قاموا باستخدام الذكاء الاصطناعي بغية تقليص نطاق المواد الكيماوية التي عليهم استخدامها في تصنيعه، الأمر الذي سرع من عملية التطوير خطوات كثيرة إلى الأمام.
في الحقيقة، كان هذا خبراً إيجابياً قلما نقرأه عن الذكاء الاصطناعي، الذي تعرض في الجزء الأكبر من العام الماضي للشيطنة بوصفه قوة خبيثة ومروعة تهدد حياتنا جميعاً. ولكن التوصل إلى هذا العقار في الواقع، ليس إلا واحداً فقط من إنجازات علمية مشوقة في حقل الذكاء الاصطناعي، والتي يتهددها النسيان في غمرة الصراخ المذعور حول أن الروبوتات ستزهق أرواحنا جميعاً، أو أنها أقله ستسرق وظائفنا.
على سبيل المثال، في العام الماضي، ذكرت شركة “ديب مايند” DeepMind للذكاء الاصطناعي، الشهيرة بتطوير النظام الآلي “ألفا غو”AlphaGo الذي أطاح أخيراً بأفضل اللاعبين البشر في اللعبة الأكثر استراتيجية في العالم “غو” Go، أنها استخدمت نموذجاً من الذكاء الاصطناعي “للكشف عن بنية عالم البروتينات” [برنامجها “ألفا فولد” نجح في تحليل بنية أكثر من 200 مليون بروتين]. باختصار، وضع برنامجها للذكاء الاصطناعي جدولاً يعرض البنى الخاصة بجميع البروتينات المعروفة للعلم تقريباً، في إنجاز مثير للدهشة ترك آثاره على مختلف نواحي الحياة من الرعاية الصحية وصولاً إلى تحليل البلاستيك الملوث.
قد يبدو التطبيق الطبي والبيولوجي بعيداً من العالم الرقمي بأرقامه وأصفاره، بيد أن الذكاء الاصطناعي أثبت جدارته في هذا النوع من العمل، وقد لمسنا مجموعة من الإنجازات المشجعة. في النهاية العمل الذي يتقنه الذكاء الاصطناعي يشبه إلى حد ما مهام الأطباء، حيث يتعرف إلى الأنماط ويتنبأ بها ويشير إلى أي الأشياء غير المألوفة – علماً أن الذكاء الاصطناعي قد دخل فعلاً حيز الاستخدام الواسع النطاق في اكتشاف الأمراض، على أمل أن يفسح ذلك في المجال أمام الأطباء من البشر للنهوض بمزيد من الأعمال المثمرة وخفض مقدار الموارد المطلوبة في أنظمة الرعاية الصحية.
على مدى سنوات، حرص المتخصصون في مجال الذكاء الاصطناعي على تسليط الضوء على هذا النوع من الإنجازات تحديداً. حتى الشركات الربحية الكبرى الهادفة مثل “غوغل”، كانت تميل إلى تضمين جهودها في مجال تحقيق إنجازات في مجال الصحة، موضحة كيف يمكن للذكاء الاصطناعي أن يكون مفيداً يوماً ما في مجالات الاستشارة والعلاج. التركيز في هذا الاتجاه يوضح السبب وراء المفاجأة التي أصابت “غوغل” حين إصدار روبوت الدردشة “تشات جي بي تي”ChatGPT في أواخر العام الماضي [من قبل شركة مايكروسوفت]، والذي سرعان ما أصبح الموضوع الوحيد الذي يتحدث عنه الجميع – وهو ما يفسر أيضاً، أقله في البداية، ترددها بعض الشيء في إطلاق منتجاتها الخاصة، على رغم التلميحات المتكررة بأن هذا يعني تأخرها في هذا المجال.
ومع إصدار هذه الأنظمة من “الذكاء الاصطناعي التوليدي”generative AI ، بدأ الذعر ينتشر حقاً. لم يكن “تشات جي بي تي” سوى واحد من هذه الأنظمة، وقد جاء في الواقع بعد أنظمة ذكية من هذا النمط ترتكز على الصور مثل “ميدجورني” Midjourney. هذه الأنظمة الذكية التوليدية، التي تنشئ صوراً ونصوصاً استجابة لتحفيزات المستخدمين، ليست سوى جزء صغير من العمل الجاري إنجازه في الذكاء الاصطناعي، بيد أنها تشكل الآن جزءاً رئيساً من النقاش. وسرعان ما أخذ ذلك النقاش منحى أكثر سلبية.
تمتلك “ديب مايند” روبوت دردشة اسمه “سبارو” Sparrow. والذي قال عنه ديميس هاسابيس، الرئيس التنفيذي للشركة، أنه ينطوي على قدرات يفتقر إليها “تشات جي بي تي” ولكنه لم يصدر بعد، حرصاً من الشركة على التزامها بالاستخدام المسؤول والحذر للذكاء الاصطناعي.
ففي مقابلة معه في وقت سابق من هذا العام، ذكر هاسابيس أنه “عندما يتعلق الأمر بالتكنولوجيات الفائقة القوة، ويبدو جلياً أن الذكاء الاصطناعي سيكون واحداً من أقوى هذه التكنولوجيات على الإطلاق، الأجدر بنا أن نتوخى الحذر. لا تشغل هذه الأمور بال الجميع. الأمر أشبه بأشخاص يخوضون تجارب علمية، وكثير منهم لا يدركون أن بين أيديهم مواد خطرة”.
من السهل أن نرى لماذا أصبح الشك والخوف من الذكاء الاصطناعي هما الوضع السائد في التفكير. لقد قامت صناعة التكنولوجيا في السنوات الأخيرة بالقليل جداً لإيجاد أي نوع من الإثارة أو الثقة.
من السهل أن نرى لماذا أصبح الشك والخوف هما الوضعان السائدان عند التفكير بشأن الذكاء الاصطناعي. فقطاع التكنولوجيا في السنوات الأخيرة لم يبذل شيئاً يُذكر من أجل خلق أي نوع من المتعة أو الثقة في هذا المجال: فالجوانب التي جرى العمل عليها، بدءاً بـ”الرموز غير القابلة للاستبدال” NFTs وصولاً إلى المراقبة المستشرية، تركت الناس في حال من الخوف تجاه العواقب السلبية للإنجازات الجديدة الآتية إلينا من “وادي السيليكون”. حتى قبل أن يعرف الناس طريقة عمل الذكاء الاصطناعي، كانوا قلقين بشأنه؛ إذ سادت على الفور تكهنات بأنه سيسرق الوظائف من الإنسان، ويفضي إلى انتشار المعلومات المضللة، وسينشر الفوضى عموماً في أنحاء العالم.
حتى أن بعضاً من انعدام الثقة هذا زرعته الجهات المتنافسة داخل الصناعة. من الواضح أن تحسين صورة الذكاء الاصطناعي يشكل في جزء منه تسويقاً لتلك الشركات التي تمتلك تكنولوجيا تستخدمها في حملة الترويج؛ ولكن لا يتوقع كثر حقيقة أن نشر الخوف من الذكاء الاصطناعي يمثل في جزء منه أيضاً حملة تسويقية. فالشركات المتخصصة جميعها، من “غوغل” إلى “أوبن أي آي” OpenAI، تشدد على أن العواقب المحتملة للذكاء الاصطناعي غير المضبوط مروعة جداً إلى حد أنه لا بد من الوثوق بها باعتبارها الجهات الصالحة القادرة على إبقائه آمناً، وأنه لا بد من وضع قوانين لتنظيم بقية الصناعة.
وأضف إلى انعدام الثقة في صناعة التكنولوجيا حقيقة أن مؤلفي الخيال العلمي ما انفكوا منذ سنوات يكتبون عن الذكاء الاصطناعي الجامح ومخاطره لسبب وجيه؛ أليس من الممتع أن تقرأ عن نهاية العالم؟ يريد الناس أن يرسموا عنها صوراً في خيالهم. فأفلام الخيال العلمي لأشرار الذكاء الاصطناعي مثل شخصية “هال 9000” (HAL 9000) في فيلم “2001” وشخصية “آش” (Ash) في فيلم “أيليان” (Alien فضائي) وما تلاهما، قامت بتهيئة هذه الثقافة للقلق بشأن الذكاء الاصطناعي، وخدمت رغبتنا في ذلك. ربما تزرع هذه القصص الخوف في نفوسنا، ولكننا نحبها أيضاً.
وأكثر من ذلك، أُدمجت كل تلك القصص في مجموعة الكلمات التي تدربت عليها أنظمة ذكية على شاكلة “تشات جي بي تي”، لذا تعود مرة أخرى في الشكل الذي تجيب به تلك الأنظمة عن أسئلتنا. وكما كتب مراسل شؤون الذكاء الاصطناعي جيمس فينسنت، هذا أشبه بـ”اختبار المرآة” الذي تخضع له الحيوانات للتأكد مما إذا كانت تتعرف إلى نفسها في المرآة أو تعتقد أنها كائن حي آخر. في روبوتات الدردشة، نرى انعكاس أنفسنا تماماً، بأسوأ مخاوفنا التي تراودنا بشأن الذكاء الاصطناعي، ولكننا ننسبها إلى شخص آخر.
ولكن حتى الأنباء الجيدة تنطوي على جوانب سيئة. كي ينجح فعلاً التأثير الثوري المحتمل الذي يطرحه الذكاء الاصطناعي على الرعاية الصحية، يحتاج إلى بلوغ بيانات الأشخاص واستخدامها في تدريب أنظمته، وقد نشأت جدالات عدة حول ما إذا كان تنفيذ هذه الخطوة يحدث بشكل صحيح. “ديب مايند” نفسها مثلاً، خاضت جدلاً قانونياً طويل الأمد حول ما إذا كانت استعملت بشكل خاطئ بيانات “هيئة الخدمات الصحية الوطنية” البريطانية “أن أتش أس”NHS السرية في أنظمتها الذكية.
الحديث المتفائل عن الذكاء الاصطناعي لا يخلو من المخاطر طبعاً. قد يوفر طريقة مناسبة للتغلب على المشكلات الحالية: لماذا تهدر الوقت في إصلاح المشكلات في حين أن الذكاء الاصطناعي قد جاء لتغيير العالم، وربما يمحي هذه المشكلات؟ يبدو سهلاً تقديم وعود فارغة بشأن المستقبل كما الحال بالنسبة إلى إطلاق تهديدات جوفاء، والذكاء الاصطناعي يسمح بالتهرب من الاثنين كليهما.
لكن الأخبار الأخيرة حول تطوير “أبوسين”، إلى جانب الأخبار المشجعة التي سبقتها، تعتبر تذكيراً مرحباً به بأن عرض الأشياء الإيجابية لا يهدف بالضرورة للتسويق والدعم. تماماً كما البكتيريا التي تساعدنا وتضرنا على حد سواء، وكذلك هي الحال بالنسبة للذكاء الاصطناعي. لذا، لا بد من تقدير الأنباء الأخيرة على الجهتين معاً.