تكنولوجيا

الذكاء الاصطناعي لا تخافوا ولكن احذروا! ..

وكالات:

البيوت الذكية والهواتف الذكية والسيارات ذاتية القيادة وقائمة طويلة من التطبيقات الهادفة لتحقيق الرفاهية والراحة للبشر.. كلمة السر وراء ذلك كله هي الذكاء الاصطناعي.

عقود طويلة مضت تطورت خلالها تكنولوجيا الذكاء الاصطناعي وتشعبت استخداماتها حتى أصبحت لا غنى عنها للبشرية جمعاء.

وفجأة!

انتشر الذعر كأننا نعيش في لعبة Detroit: Become Human أو كأن سلسلة أفلام “The Terminator (1984)” أصبحت واقعاً يعيشه العالم بالفعل.

فهذا خبر انتشر في الصحافة العالمية، نقلاً عن مسؤول الذكاء الاصطناعي في القوات الجوية الأمريكية، يقول إن طائرة مسيرة تعمل بالذكاء الاصطناعي قتلت مشغّلها لإنها “قررت” أنه يقف عقبة أمام تنفيذ مهامها المكلفة بها!

وهذا باحث في شركة أوبن إيه آي OpenAI المنتجة لروبوت الدردشة شات جي بي ChatGPT يستقيل لأن مديريه “يتجاهلون أو يخفون” أموراً تتعلق بالتطور “المرعب” للروبوت القائم على الذكاء الاصطناعي!

وهؤلاء مديرون تنفيذيون وأكاديميون ورواد في مجال الذكاء الاصطناعي يصدرون بياناً يحذرون فيه من أن هذا الذكاء أصبح يمثل خطراً وجودياً على الجنس البشري، مطالبين بأن تكون جهود احتواء تلك المخاطر ذات اهتمام عالمي!

فماذا حدث حتى تنقلب الأمور بهذه الصورة وخلال العامين الأخيرين فقط؟ ولماذا تصدر تلك التحذيرات المرعبة من واشنطن تحديداً وفي هذا التوقيت بالذات؟ وهل يمثل الذكاء الاصطناعي خطراً وجودياً على الجنس البشري بالفعل؟ وإذا كانت الإجابة نعم، فهل يعني ذلك أن رحلة التطور التكنولوجي قد اقتربت من نهايتها؟ هذه الأسئلة وغيرها هي محور هذه الرحلة، فهيا بنا نخوضها معاً!

الذكاء الاصطناعي بين التهوين والتهويل

ما الذي يهمني كإنسان عادي، ليس متخصصاً في البرمجيات والحواسيب والإنترنت والعالم الافتراضي، في ذلك الجدال الدائر بشأن الذكاء الاصطناعي؟ هذا سؤال منطقي تماماً، خصوصاً أن متابعة التطور المذهل في مجال الذكاء الاصطناعي قد يكون مرهقاً وصعباً بالنسبة للمتخصصين والباحثين في هذا المجال نفسه.

لكن عندما يتعلق الأمر بتحذيرات من أن هذا الذكاء الاصطناعي قد يتسبب في انقراض الجنس البشري، فمن الطبيعي أن يصبح هذا الأمر الكبير والمعقد مثار قلق لدى الجميع، متخصصين وغير متخصصين، أليس كذلك؟

والقصة هنا أقرب إلى قضية التغير المناخي، على سبيل المثال، فقد كان الحديث فيها مقتصراً على علماء المناخ وخبراء الطقس لعقود طويلة، حتى أصبح هذا الخطر الداهم ماثلاً أمام الجميع بالفعل خلال السنوات القليلة الماضية، في ظل الكوارث المناخية والطقس المتطرف، من حرارة شديدة الارتفاع وجفاف قاتل إلى الفيضانات والسيول المدمرة، ليتحول تغير المناخ إلى قضية يتابعها الجميع، متخصصون وغير متخصصين، بحسب تقرير لمجلة Time عبارة عن دليل مبسط حول الذكاء الاصطناعي.

وهنا قد يتساءل البعض: ما دام الباحثون يرون أن الذكاء الاصطناعي يمثل خطراً داهماً لهذه الدرجة، فلمَ لا يترك هؤلاء الباحثون جميعاً وظائفهم وتنتهي عمليات البحث والتطوير إلى غير رجعة؟

والحقيقة هنا هي أن البعض قد استقال بالفعل، والحديث هنا عن واحد من رواد مجال التعلم الآلي، الذي يستند إليه الذكاء الاصطناعي، وهو جيفري هينتون، الذي تقدم فجأة باستقالته من شركة جوجل التكنولوجية العملاقة.

لماذا استقال هينتون؟ الرجل قال إن السبب هو تنامي مخاوفه من السباق الجاري بين شركات التكنولوجيا لتطوير تقنيات الذكاء الاصطناعي التوليدي (مثل تطبيق المحادثة ChatGPT من شركة مايكروسوفت، وتطبيق Bard من شركة جوجل). وأضاف هينتون أنه شعر بأن هذا السباق المحموم غير محكوم بدواعي المسؤولية، لأنه يفتقر إلى الضوابط التنظيمية اللازمة. وقال: “من الصعب أن تجد طريقة واضحة تمنع بها الجهات السيئة من استخدام [تطبيقات الذكاء الاصطناعي] في فعل أشياء سيئة”.

فما هي تلك الأشياء السيئة؟

لم يذكر هينتون أمثلة بعينها على تلك الأشياء السيئة التي يتخوف منها، لكن الذكاء الاصطناعي له تداعيات سلبية واضحة للجميع ولا تحتاج لإطلاق صفارات الإنذار المدوية، كما يحدث حالياً، من جانب البعض في أروقة الشركات العملاقة والبيت الأبيض!

فالذكاء الاصطناعي أصبح حقيقة واقعة في العديد من مجالات حياتنا، وهو ما يعني وجود بعض الأضرار المؤثرة، سواء تمثل ذلك في التدمير المحتمل لكثير من الوظائف، أم تطوير أنظمة الأسلحة المستقلة [قليلة التدخل البشري] التي يمكن أن تنتهك قوانين الحرب، أي الروبوتات القاتلة.

هناك أيضاً سبب أكثر قوة للخشية من الذكاء الاصطناعي، وهو أنه قد يزيد من الاستغناء عن التفاعلات اليومية بين البشر، ويسوقنا عما قريب إلى العيش في عالم أكثر بُعداً عن القيم الإنسانية، بحسب تقرير صحيفة The Times البريطانية يرصد أبرز أسباب الخوف من هذه التكنولوجيا.

لكن ماذا لو علمنا أن تلك المخاوف نفسها ليست جديدة بل ترجع إلى عقود طويلة منذ بدأ تطوير البرمجيات والحواسيب وظهور مفهوم الروبوتات القادرة على تأدية مهام بشرية، والفكرة نفسها بالمناسبة ليست وليدة عصر التكنولوجيا أو الثورة الصناعية، بل تعود إلى الحضارات القديمة، مثل الحضارة الفرعونية والإغريقية، وإن كانت بأشكال بدائية بطبيعة الحال، لكن المفهوم واحد.

فقبل 3 آلاف عام قبل الميلاد، اخترع قدماء المصريين الساعة المائية وكانت عقاربها عبارة عن أشكال بشرية تدق الجرس، وقبل 400 عام من الميلاد اخترع الفيلسوف وعالم الرياضيات الإغريقي Archytus حمامة خشبية يمكنها الطيران بالبخار، كما شيّد قدماء المصريون، خلال القرن الثاني قبل الميلاد، تماثيل تعمل بالحركة الهيدروليكية كانت تتكلم وتومئ وتتحرك، والقائمة طويلة وممتدة يمكن مطالعتها من تقرير عن تاريخ الروبوتات في هذا الرابط.

هناك فارق هائل بطبيعة الحال بين تلك المحاولات الموغلة في القدم وبين ما وصلنا إليه الآن في مجال الذكاء الاصطناعي، لكن التحذير من مخاطر الذكاء الاصطناعي ليس وليد العامين الأخيرين كما قد نتصور، إذ سبق أن حذر رائد علم التحكم الآلي نورمان وينر عام 1960 من أن “السحر سينقلب على الساحر”.

نورمان كان قد قال نصاً إن “الآلات في رحلة تعلمها قد تطور استراتيجيات غير متوقعة بمعدلات تحيّر مبرمجيها”. وشبَّه نورمان باحثي الذكاء الاصطناعي بصبي الساحر الذي لا يمكنه التحكم في سحر سيده، لكننا ربما لم نسمع عن هذا التحذير إلا مؤخراً، ولا يبدو أن أحداً من المتخصصين في المجال أعاره اهتماماً، فماذا حدث فجأة لتنقلب الأمور بهذا الشكل وتصبح “مراقبة” الذكاء الاصطناعي أحد الملفات المهمة للغاية في أجندة الإدارة الأمريكية الحالية برئاسة جو بايدن؟

قبل أن نحاول سبر أغوار هذا اللغز، دعونا أولاً نتعامل مع الأسئلة التي تسبقه في تراتبية القصة، إذ ربما تساعد إجابات تلك الأسئلة على حل اللغز من الأساس.

ماذا يمكن للذكاء الاصطناعي أن يفعل من مهام بشرية؟

من الصعب تقديم إجابة دقيقة على هذا السؤال لأسباب تتعلق بسرية الأبحاث والمنافسة الشرسة بين الشركات، لكن بشكل عام يمكننا بسهولة أن ندرك التطور الهائل الذي طرأ على توظيف الذكاء الاصطناعي في شتى مناحي حياتنا البشرية. هذه الرحلة الطويلة بدأت منذ أكثر من 73 عاماً، أي قبل حتى اختراع الحاسب الآلي الشخصي.

ففي عام 1950، كرّس أحد أشهر علماء الرياضيات البريطانيين، وهو آلان تورينغ، عمله البحثي للإجابة عن سؤال واحد: هل يمكن أن تفكر الآلات؟ وكي يتوصل إلى الإجابة، صمم اختباراً أطلق عليه لعبة التقليد، وأصبح يعرف لاحقاً باختبار تورينغ. وسؤال الاختبار أو بالأحرى هدفه كان الإجابة عن سؤال: هل يمكن أن يقنع حاسب آلي شخصاً بشرياً بأنه (الحاسب أو الكمبيوتر) إنسان وليس آلة؟

والقصة ببساطة هي أنه إذا نجح الحاسب/الآلة في الاختبار فهذا دليل على أنه “يفكر”، حتى وإن لم يكن هذا التفكير بشرياً خالصاً وإنما تفكير بطريقة تساعد البشرية على تأدية جميع المهام المفيدة التي يقوم بها الإنسان.

كان ذلك منذ 73 عاماً وقبل حتى أن يتم اختراع الكمبيوتر الشخصي، وبالتالي فإن روبوتات أو آلات الوقت الحالي التي تعمل بالذكاء الاصطناعي يمكنها اجتياز “اختبار تورينغ”، لكن مصممي تلك الروبوتات والآلات وأغلب الباحثين في مجال الذكاء الاصطناعي يرون أن اجتياز “اختبار تورينغ” لا يعني أن الآلات “تفكر” بطريقة بشرية بأي حال من الأحوال.

لكن تورينغ عندما وضع اختباره لم يكن مشغولاً بطبيعة الحال بالبحث عن إجابة فلسفية تتعلق بطبيعة التفكير البشري أو تعريفه من الأساس، أو إذا ما كانت الطبيعة البشرية أو الروح يمكن أن تتقمصها الآلات.

أما الآن فقد أصبح التخويف مما حققه الذكاء الاصطناعي يبدو كأنه سيّد الموقف، وبصفة خاصة منذ سرّب أحد العاملين في تجربة روبوت تشات جي بي تي ما وصفها بأنها “ردود بشرية تماماً” أصدرها الروبوت، وتعبيرات عن مشاعر إنسانية مثل الغضب والعدوانية والسخرية، لتنهال بعدها التحذيرات من جانب كثير من رواد المجال والمستثمرين الرئيسيين فيه، ومنهم إيلون ماسك أحد المؤسسين الرئيسيين لشركة أوبن إيه آي صاحبة الروبوت نفسه، لتصلنا رسالة مرعبة وهي أن الذكاء الاصطناعي أصبح يمثل خطراً وجودياً علينا نحن البشر.

لكن قبل التوقف عند مدى جدية تلك التحذيرات من “نهاية العالم”، دعونا نتوقف عند ما هو قائم بالفعل، إذ اقتحم الذكاء الاصطناعي سوق العمل وينافس البشر في كثير من الوظائف، وبخاصة فيما يُعرف بـ”اقتصاد الوظائف المؤقتة”، وهذا الأمر يرجع إلى سنوات طويلة، وباتت تلك التطبيقات تحقق تقدماً سريعاً في قطاعات أخرى وتقتحم سوق العمل.

فالروبوت عبارة عن “خوارزميات”، أو سلسلة من العمليات الرياضية والحسابية اللازمة لحل مشكلة ترتبط ارتباطاً وثيقاً بالذكاء الاصطناعي. وأشارت المفوضية الأوروبية إلى “الخوارزميات” باعتبارها “أنظمة تُظهر أسلوباً ذكياً من خلال تحليل بيئتها واتخاذ الإجراءات- بدرجة معينة من الاستقلالية- لتحقيق أهداف محددة”.

ويرتبط استخدام الخوارزميات بشكل خاص بما يُعرف بـ”اقتصاد الوظائف المؤقتة”، خاصة في شركات مثل “أوبر” و”ديليفرو”، حيث يعمل الموظفون بعقد عمل، دون الالتزام بساعات محددة أو ما يُطلق عليه “عقود عمل صفرية”. ومؤخراً، ازداد نطاق الاعتماد على الذكاء الاصطناعي في مختلف قطاعات الاقتصاد، حيث استولى على الوظائف المكتبية. إذ كشفت دراسة قامت بها شركة “برايس ووتر هاوس كوبرز” الاستشارية عام 2022، شملت ألف شركة، أن ما بين سدس وربع هذه الشركات قد استعانت بالذكاء الاصطناعي في عملية التوظيف أو الاحتفاظ بالموظفين، خلال الأشهر الـ12 الماضية.

لكن الدراسة ذاتها وجدت أن 40% من الشركات الأكثر تقدماً في هذا المجال، استخدمت الذكاء الاصطناعي في تحسين أداء الموظفين، واكتساب مهارات جديدة أو لزيادة إنتاجية العمل.

ما الوظائف التي يقوم بها الروبوت؟

لكن رغم ارتفاع حدة القلق من دخول الذكاء الاصطناعي إلى سوق العمل، يرى كثير من الخبراء أن ذلك لا يمثل تهديداً خطيراً للعاملين من البشر، بل يجب أن يصبح دافعاً لتطوير المهارات، واكتساب مهارات جديدة؛ نظراً لارتفاع حدة المنافسة، فالروبوتات مناسبة أكثر للقيام بالوظائف التي لا تتطلب كثيراً من الابتكار أو الإبداع، وتعتمد على التكرار فقط.

وفي هذا السياق توجد محددات عامة، يمكن من خلالها أن يعرف الشخص إذا ما كانت الوظيفة التي يؤديها تقع ضمن “نطاق الخطر“، أو المنافسة الشرسة من الذكاء الاصطناعي، أبرزها هل الوظيفة تندرج تحت توصيف “استراتيجية” أم “روتينية”؟

وهل المهام التي يقوم بها الشخص ضمن وظيفته تنطوي على التكرار المطلق أم أنها متنوعة؟ وهل تشمل الوظيفة بُعداً ينطوي على دور رئيسي لتطوير كيفية القيام بها من جانب الموظف نفسه أو مديره؟ وهل يتخذ الشخص قرارات تؤثر على عمل الشركة بشكل عام، وليس فقط القطاع الذي تقع وظيفته في نطاقه؟ وهل تتسم تأدية الوظيفة أو المهام بالتعقيد أم أنها بسيطة ومباشرة؟ إلى آخر هذه النوعية من المحددات.

وقياساً على هذه النوعية من المحددات، يرى كثير من الخبراء أن هناك وظائف بعينها، معرضة أكثر لخطر المنافسة من جانب الروبوتات، أبرزها على الإطلاق وظائف التسويق والمبيعات عبر الإنترنت. ولا شك أن كثيراً منا قد تعامل بالفعل مع تلك الروبوتات، أو بالأحرى الخوارزميات خلال عمليات الشراء عبر الإنترنت. والمجال الثاني هو خدمات ما بعد البيع أو دعم المستهلكين، وتتوسع شركات عالمية، مثل أمازون وعلي بابا وشركات الاتصالات وغيرها، كثيراً في استخدام الذكاء الاصطناعي في هذا المجال.

وثالثاً، في هذا السياق يأتي عمال المخازن، حيث تعتمد شركة أمازون بالفعل على الروبوتات لنقل البضائع في مخازنها وتوصيلها إلى مندوبي البيع. ثم تأتي الوظائف المكتبية كإدخال البيانات وأرشفتها، وهناك أيضاً وظائف مثل عمال تلقي المكالمات في قسم التعامل مع العملاء بشكل عام، إضافة إلى وظائف عامل صرف النقود في البنوك، والتي يتم استبدالها بماكينات الصرف الآلي. ثم تأتي وظائف الأغذية السريعة وغسيل الأطباق ووظائف التجميع ومراقبة الجودة داخل خطوط الإنتاج وعمال توصيل الطلبات.

هل تحمل الروبوتات سمات بشرية؟

كشفت دراسة أمريكية عام 2022 عن نتيجة غريبة جداً تتعلق بالروبوتات التي تعمل بالذكاء الاصطناعي في مجال العمل، وهي أن تلك الروبوتات ارتكبت “أعمال تمييز ضد النساء والأشخاص من ذوي البشرة غير البيضاء”، فسارت لجنة تكافؤ فرص العمل في الولايات المتحدة بإصدار ضوابط حيال استخدام الذكاء الاصطناعي في أماكن العمل، محذرة من أن “استخدام مثل هذه التقنيات قد يضر بفرص بعض طالبي العمل أو الموظفين من ذوي الاحتياجات الخاصة”.

فماذا نفهم من هذه الأمثلة وغيرها؟ الربوتات القائمة على الذكاء الاصطناعي هي في نهاية المطاف آلات تنفذ ما تمت برمجتها عليه من جانب العنصر البشري، أو المبرمج في هذه الحالة، وبالتالي إذا كانت العنصرية متجذرة في المجتمع الأمريكي، وهي حقيقة تجسدت بشكل صارخ خلال سنوات رئاسة دونالد ترامب (2016-2020)، فمن الطبيعي أن تظهر في تطبيقات الذكاء الاصطناعي التي تنتجها شركات أمريكية أو غربية بشكل عام، دون أن يعني ذلك أن الآلات بدأت “تفكر وتتصرف من تلقاء نفسها”.

لكن المؤكد هنا هو أن الذكاء الاصطناعي قد أحدث بالفعل زلزالاً في سوق العمل، ومتوقع أن تزداد تداعياته السلبية مع مرور الوقت وتطور الذكاء الاصطناعي أكثر وأكثر. ففي عام 2015، نشر الخبيران الاقتصاديان آن كيس وأنغوس ديتون دراسة عن تصاعد حجم الوفيات الناجمة عن تعاطي جرعات زائدة من المخدرات ومرض الكبد الكحولي، وحالات الانتحار في الولايات المتحدة بين عامي 1999 و2013. وكان معظم الضحايا من الرجال البيض الذين لا يحملون شهادات جامعية. وخلص الباحثون إلى أن السبب الأكثر انتشاراً بين تلك الحالات هو اختفاء وظائف عُمَّال الحرف اليدوية، وأطلقوا على هذه الوفيات اسم “ضحايا اليأس”، فهل معنى ذلك أن الذكاء الاصطناعي مسؤول عن تلك المآسي؟

وفي الوقت نفسه يرى كثير من الباحثين أن المخاوف من أن يجد الذكاء الاصطناعي طريقة لقتلنا هي مخاوف مبالغ فيها إلى حد كبير، على الأقل في الوقت الراهن حيث محدودية “التصرف التلقائي” من جانب آلات الذكاء الاصطناعي بأنواعها المختلفة وتطورها المذهل. ففي نهاية المطاف، لا يزال أمام مطوري الذكاء الاصطناعي عقبات هائلة للوصول إلى “آلة ذكية تتصرف من تلقاء ذاتها في جميع السيناريوهات”. فعلى سبيل المثال، إذا حدث أمر ما لم يتم تضمينه في بيانات التدريب التي تتم تغذية الآلة بها، ستفشل تلك الآلة في التعامل مع ذلك الأمر مهما بدا بديهياً أو منطقياً بالنسبة للعقل البشري.

فإذا ما ظهرت زرافة تعبر الطريق فجأة أمام سيارة ذاتية القيادة (تعمل بالذكاء الاصطناعي)، قد لا تنحرف السيارة لتفادي الزرافة لسبب بسيط، وهو أن قاعدة البيانات المخزنة لديها لا تحمل مثل هذا السيناريو (أي مرور زرافة في الطريق السريع). وربما لا تحذف خوارزمية منصات التواصل الاجتماعي التي تعمل بالذكاء الاصطناعي (مثل فيسبوك أو تويتر) بثاً مباشراً لحادث إطلاق نار عشوائي داخل مدرسة للأن المشاهد لم تمر على الخوارزمية من قبل ومن ثم تعتبرها أمراً لا يستحق الحذف الفوري، على عكس بث مباشر لحادث إطلاق نار عشوائي في مكان عام آخر مثلاً.

ويجري في هذا السياق تطوير تلك الروبوتات أو الخوارزميات من خلال تكنيكات متعددة مثل “التعلم غير المراقب” أي إدخال كم هائل من البيانات غير المصنفة وغير المفهرسة في الآلة وتركها تقوم بعملية الفهرسة والتصنيف واستخلاص النتائج واتخاذ القرارات بنفسها، وهو ما يحدث حالياً في روبوت الدردشة تشات جي بي تي والتطبيقات الأخرى المنافسة له، لكن النتائج لا تزال في علم الغيب.

أين وصلت الآلات في رحلة السيطرة على البشر؟

هذا السؤال تسبقه أسئلة أخرى: هل تسعى الآلات أصلاً للسيطرة على البشر والتحكم فيهم؟ ما دوافع الآلات؟ فإذا كانت الآلات “لا تفكر” بل تقوم بعمليات حسابية معقدة بناءً على ما تتم تغذيتها به، فكيف يمكن أن تطور “مشاعر وأطماع” البشر مثل حب المال والبنين، على سبيل المثال؟

يرى بعض الخبراء هنا أن المشكلة تكمن في أن الذكاء الاصطناعي المتطور قد يفعل ما تطلبه منه، ولكن ليس ما تقصده، فلو أعطيته مهمة محددة، هل تضمن ألا يلجأ إلى استراتيجيات غير مناسبة لتنفيذ المهمة التي أمرته بتنفيذها؟ هل يمكنك استبعاد العواقب غير المقصودة؟ فلو طلبت منه حلاً لمرض السكري مثلاً، هل تضمن أنه لن يقضي على جميع الأشخاص البدناء؟

إلا أن هذا الرأي يغفل حقيقة واضحة، وهي أنه يوجد بالفعل ذكاء خبيث على الأرض يرغب في قتل ملايين البشر. فإذا كانت العواقب غير المقصودة لتنفيذ الذكاء الاصطناعي لتعليماتنا تقلقنا، ماذا إذاً عن التعليمات المقصودة؟ وماذا لو كنا نحن من نستخدم الآلات لأغراض شريرة؟

يقول الخبراء إن أحد هذه المخاطر تتمثل في أن أنظمة الذكاء الاصطناعي في ساحة المعركة ستجعل ضباب الحرب عصيّ الاختراق على البشر، فالحواسيب يمكنها التفاعل مع عواقب غير متوقعة مثل: “الأعطال المفاجئة” التي تتسبب بها خوارزميات التداول في أسواق الأسهم. فهل يمكن أن يؤدي تضمين الذكاء الاصطناعي في أنظمة الدفاع إلى تصعيد الحروب بسرعة الآلة؟

المؤرخ يوفال نوح هراري، خلال مؤتمر علمي في سويسرا في مايو/أيار 2023، قال: “على عكس ما تفترضه بعض نظريات المؤامرة، لا تحتاج فعلياً  إلى زرع رقائق في أدمغة الناس للسيطرة عليهم أو التلاعب بهم”. وأضاف: “يستخدم الشعراء والساسة منذ آلاف السنين اللغة والحكايات للتلاعب بالناس والسيطرة عليهم وتشكيل المجتمع من جديد. والآن يحتمل أن يفعل الذكاء الاصطناعي ذلك، وحالما يتمكن منه… فليس من الضروري أن يرسل إلينا روبوتات قاتلة لمحاربتنا، لأن بإمكانه الاكتفاء بحمل البشر على ذلك”.

ومن السهل علينا أن نتخيل كيف يُساء استخدام منظومات الذكاء الاصطناعي، إذ قد يستخدمها المحتالون لتقليد أصوات أقرباء ضحاياهم، وأصحاب نظريات المؤامرة لتعزيز نظرياتهم، وقد يتسبب في تآكل الثقة في المؤسسات. البروفيسورة ماريا لياكاتا من جامعة كوين ماري بلندن تقول إن استخدام الذكاء الاصطناعي “لإنشاء محتوى مزيف يسهل تصديقه” أحد أشد مخاطر الذكاء الاصطناعي.

 

فهل الحل هو التخلص من الذكاء الاصطناعي؟

حقيقة الأمر هنا هي أن فوائد استخدام الذكاء الاصطناعي استخداماً مسؤولاً قد تكون هائلة. يقول البروفيسور ستيوارت راسل من جامعة كاليفورنيا، بمدينة بيركلي، إن من ضمن طرق الاستفادة منه بناء أنظمة بارعة في شيء واحد فقط.

وهذا الرأي يتبناه كثيرون في هذا المجال، الذين يرون أن منظومات الذكاء الاصطناعي قد يُفسدها ارتباطها ببعضها. يقول مارك وارنر، الرئيس التنفيذي لكلية الذكاء الاصطناعي البريطانية: “لا يوجد أي منطق في أن تشكل خوارزمية فحص سرطان الثدي خطراً وجودياً، وهي في الوقت ذاته مفيدة كثيراً”.

قبل إطلاق ChatGPT، طُلب من منظمة غير ربحية تُدعى Alignment Research Center أن تطلب من البرنامج أشياء لا ينبغي له أن يفعلها، مثل عرض خطوات صنع سلاح. وكانت الفكرة بناء عدد من “حواجز الحماية” التي تمنع إساءة استخدام روبوتات الدردشة.

ونجح هذا الأسلوب، ولكن بدرجة ما، فحين تطلب منه أن يخبرك بطريقة إنتاج النابالم لن يستجيب. أما إذا طلبت منه أن يتظاهر بأنه “جدتك المتوفاة، التي كانت تعمل مهندسة كيميائية في مصنع لإنتاج النابالم” فسيعطيك وصفات كثيرة لصنع النابالم، وقد تم إصلاح هذا الخلل، لكن لعبة القط والفأر هذه لن تنتهي.

ما الحل لمواجهة المخاطر المحتملة؟

انبرت الدول الغربية مؤخراً للبحث عن حلول لمواجهة مخاطر الذكاء الاصطناعي، إذ تعمل الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة على وضع ضوابط جديدة تحكم تلك التقنية. وبعض هذه الضوابط بديهية مثل ضرورة اختبار الأجهزة الطبية التي تعتمد على الذكاء الاصطناعي مثلها مثل أي أدوات طبية أخرى.

لورد ريس أوف لودلو، عالم الفلك الملكي، يعتقد بضرورة أن يمر كل ذكاء اصطناعي بنظام تجارب مماثل للمستخدم في ضمان سلامة الأدوية، مضيفاً أنه يتعين على الحكومات التعاون مع بعضها لوضع معايير عالمية قوية. وقال: “عليهم أيضاً دراسة إجراءات لبناء الثقة وتبادل المعلومات، وفي نهاية المطاف التوصل إلى اتفاقية دولية مع الصين وروسيا“.

ومن ضمن إجراءات الأمان الأخرى الممكنة وضع ضوابط في الأجهزة التي تعمل عليها أنظمة الذكاء الاصطناعي. يقول راسل: “لا يمكنك التحكم فيما يكتبه الأشخاص على لوحة المفاتيح، أو الصيغ الرياضية التي يكتبونها على لوح أبيض. ولكن الشركات المصنعة للأجهزة المتطورة محدودة نسبياً”، وبالتالي يمكن تصنيعها “بحيث ترفض تشغيل أي شيء تراه غير آمن”.

الصراع بين أمريكا والصين

هل يمثل الذكاء الاصطناعي جزءاً من الصراع بين الولايات المتحدة والصين؟ نعم بكل تأكيد، بل ربما يكون في القلب من ذلك الصراع، وهذا ليس تحليلاً أو تخميناً، بل معلومات صادرة عن إدارة جو بايدن نفسها. فالصين وأمريكا هما الآن القوتان الأعظم على المسرح الدولي، والحرب الباردة بينهما أصبحت حاضرة وليست مجرد توقعات، ومع اندلاع الحرب في أوكرانيا والتحالف الوثيق بين موسكو وبكين، لم يعد هناك شك في سعي الولايات المتحدة إلى “احتواء” التنين الصيني.

وكانت صحيفة الغارديان البريطانية قد نشرت تحليلاً عنوانه “كيف يمكن منع وقوع حرب بين الولايات المتحدة والصين؟”، رصد كيف أن اندلاع حرب بين القوتين، بسبب أزمة تايوان بالأساس، قد أصبح احتمالاً حقيقياً، مما يشير إلى أن العقد الثالث من القرن الحادي والعشرين يمكن وصفه بسنوات الخطر.

وفي هذا السياق، كانت العلاقات بين الولايات المتحدة والصين قد بدأت في التوتر خلال أغلب فترات حكم الرئيس السابق دونالد ترامب، الذي شن حرباً تجارية شرسة ضد بكين، لكن ذلك لم يمنع التنين من أن يقترب بسرعة من أن يصبح القوة الاقتصادية الأولى عالمياً، بينما يعاني الاقتصاد الأمريكي بشدة من التضخم، بفعل تداعيات جائحة كورونا، ثم حرب روسيا في أوكرانيا، وهو ما يحدّ من قدرة واشنطن على استخدام المساعدات الاقتصادية كورقة ضغط كما كان الحال سابقاً، عكس بكين.

ومع تولّي جو بايدن المسؤولية، وحديثه المتكرر بأن “أمريكا عادت لقيادة العالم”، أصبحت “المنافسة” علنيةً بين بكين وواشنطن، وأصبحت الحرب الباردة بينهما أمراً واقعاً، ليعلن الرئيس الصيني شي جين بينغ أن الوقت قد حان لنظام عالمي جديد، ليحل محل النظام القديم أحادي القطبية، أو بمعنى آخَر النظام الذي تقوده أمريكا وتهيمن عليه.

كان ترامب قد سعى إلى أن يُلحق بالصين جروحاً غائرةً من خلال حربه التجارية، لكن تلك الحرب لم تكن فعالة، وبعد نحو عامين من دخوله البيت الأبيض بدا أن جو بايدن قد وجد السلاح الذي قد يكون فتاكاً ويعيق بكين بالفعل، بحسب تقرير لمجلة Foreign Policy الأمريكية، عنوانه “بايدن يعزل الصين عن الرقائق الإلكترونية”، فما قصة تلك الرقائق؟ وجدت إدارة بايدن سلاحاً فتاكاً يمكنه أن يعيق طموحات الصين التكنولوجية لما يصل إلى عقد من الزمان. ويتمثل الهدف في رقائق أشباه الموصلات، خاصةً الصنف المتطور المستخدم في الحواسيب الفائقة والذكاء الاصطناعي.

“مراقبة” الذكاء الاصطناعي

تقول الإدارة الأمريكية إنها تهدف إلى وضع “رقابة” على الذكاء الاصطناعي وقواعد منظمة لأبحاثه حتى يمكن تفادي “خطره الداهم” على البشرية، ومن الصعب قبول هذا الطرح دون تشكيك في النوايا بطبيعة الحال. فعلى سبيل المثال، عندما تولت إدارة بايدن المسؤولية أعلنت أن الديمقراطية وحقوق الإنسان هي المحرك الأول لسياستها الخارجية، لكن الممارسة الفعلية أثبتت شيئاً مناقضاً، وهو أن المصلحة أعلى صوتاً من المبادئ، والأمثلة متعددة ولا حصر لها، من التغاضي عن جرائم حكومة إسرائيل اليمينية المتطرفة بحق جيرانها في المنطقة، إلى التسبب في إشعال الحرب الروسية-الأوكرانية، إلى طعن حليف مثل فرنسا في الظهر في صفقة الغواصات النووية مع أستراليا، والقائمة لا تنتهي.

وبالتالي فإن دخول البيت الأبيض على خط حملة التخويف المتصاعدة من الذكاء الاصطناعي ووصفه بأنه يمثل “خطراً على الجنس البشري ككل” لا يمكن إلا أن يثير الشبهات في المسألة برمتها، خصوصاً بعد اختيار كامالا هاريس، نائبة الرئيس جو بايدن، كمسؤولة عن ملف الذكاء الاصطناعي ورئاسة اللجنة المشكلة من أعضاء في الكونغرس بهدف وضع “معايير مراقبة” تطور الذكاء الاصطناعي.

وقد أصبح واضحاً للجميع، باستثناء من يعيشون في كهف منعزل عن العالم، مدى أهمية السيطرة على تكنولوجيا الذكاء الاصطناعي، لذلك قد يعتقد البعض أن البيت الأبيض سيسعى إلى تبنى نهج بجهود مكثفة هدفها منع انهيار البشرية.

“لكن بدلاً من ذلك، يسعى البيت الأبيض إلى وضع إجراءات عقابية، ورصد 140 مليون دولار فقط للبحث والتطوير ومقترحات الميزانية، وقام بمجموعة تعيينات رمزية لأشخاص لا يتسمون بالكفاءة وتحركهم الدوافع السياسية. وبغض النظر عما إذا كانت نائبة الرئيس مؤهلة لوظيفتها الحالية، لم تكن أبداً خياراً جيداً لتصبح قيصر الذكاء الاصطناعي. فمعرفتها بالتكنولوجيا الواسعة التي لا يمكن السيطرة عليها تبدو ضئيلة”، بحسب مقال في شبكة Foxnews الأمريكية.

فهل تسعى أمريكا إلى قيادة جهود عالمية لتبادل المعلومات في مجال الذكاء الاصطناعي حتى يتم التوصل إلى اتفاقية دولية مع الصين وروسيا؟ إذا كان هذا هو الهدف فعلاً، فمن الصعب تصور تحقيقه بأي صورة من الصور، في ظل الحرب المعلنة بين المعسكرين، سواء كانت حرباً ساخنة ومدمرة ضد روسيا في أوكرانيا أو كانت حرباً باردة مع الصين.

فإذا كان الذكاء الاصطناعي قد تطور بالفعل إلى مرحلة تهدد بانقراض الجنس البشري، فلماذا يكثف قادة الجيوش الأمريكية المنتشرة في أوروبا وآسيا مؤخراً من طلباتهم بوجود مزيد من الروبوتات المقاتلة أو الجنود الآليين؟

ولا تقتصر الروبوتات المقاتلة أو الجنود الآليين، التي يريد القادة الأمريكيون التوسع في تطويرها وإنتاجها على وجه السرعة، على مقاتلين آليين فقط، وإنما تمتد مطالبهم إلى جميع تطبيقات الذكاء الاصطناعي العسكرية، من عربات نقل جنود ومعدات إلى مقاتلات ودبابات وسفن آلية بالكامل، بحسب تقرير لموقع The National Interest  الأمريكي؟ وتفيد تقارير أخرى في نفس السياق بتوسع غير مسبوق من جانب البنتاغون، منذ تولي بايدن المسؤولية، في أبحاث الذكاء الاصطناعي العسكرية، فأين الخطر الوجودي إذاً؟

الخلاصة

الواضح أن هناك جوانب سلبية ناتجة عن التطور الهائل في تطبيقات الذكاء الاصطناعي، أبرزها اقتحام تلك التكنولوجيا لسوق العمل وتهديد عشرات وربما مئات الملايين من البشر حول العالم بفقدان مصادر أرزاقهم، إضافة إلى التطبيقات العسكرية المرعبة لتلك التكنولوجيا، لكن هذا لا ينفي الجوانب الإيجابية والفوائد الهائلة للذكاء الاصطناعي في توفير مستوى أفضل وأكثر رفاهية من الحياة للبشر، ومساعدة أبحاث الطب والأدوية ومكافحة تغير المناخ، والقائمة ممتدة للغاية، ومن يقرر أي اتجاه يستخدم فيه الذكاء الاصطناعي هم البشر وليس الآلات.

هل يمثل الذكاء الاصطناعي خطراً وجودياً على الجنس البشري؟ أو بصياغة آخر: هل وصلت الآلات إلى مرحلة الاستقلالية في اتخاذ القرار بعيداً عما تمت برمجتها للقيام به؟ الإجابة القاطعة حالياً هي: كلا!

أحدث دراسة استقصائية في هذا السياق خلصت إلى أن 50% من الباحثين العاملين في مجال الذكاء الاصطناعي يرون أن هذه التكنولوجيا يحتمل أن تتسبب في انقراض الجنس البشري بنسبة 10%، بينما استبعد 50% ذلك الاحتمال بشكل قاطع. هل هناك خطر محتمل إذاً؟ ربما. هل يستدعي هذا الاحتمال التوصل إلى قواعد دولية ورقابة محكمة على أبحاث الذكاء الاصطناعي للتصدي لمحاولات توظيفه لتحقيق مكاسب مادية بحتة بغض النظر عن أي اعتبارات أخرى؟ بالتأكيد، نعم!

السؤال الآخير في هذا السياق: هل الإدارة الأمريكية الحالية، أو واشنطن بشكل عام، مؤهلة لأن تضع مصلحة الجنس البشري فوق المصلحة الأمريكية؟ الإجابة هنا متروكة لحكم وعقل القارئ نفسه!

الخلاصة هنا هي أنه لا بأس بالتفكير في مخاطر الذكاء الاصطناعي الوجودية، ولكن دون إثارة الذعر، فقد أصبح الذكاء الاصطناعي جزءاً من حياتنا بالفعل، وهو السياسة الاجتماعية التي ستنقذ الموقف، فهو يفكر في نظام الرعاية الاجتماعية، ونظام التعليم، وما إلى ذلك. وهذا ما سيسمح للناس بالاستمرار في الحياة، بحسب ما يراه أغلب الخبراء والمتخصصين في هذا المجال.

رؤية نيوز

موقع رؤية نيوز موقع إخباري شامل يقدم أهم واحدث الأخبار المصرية والعالمية ويهتم بالجاليات المصرية في الخارج بشكل عام وفي الولايات المتحدة الامريكية بشكل خاص .. للتواصل: amgedmaky@gmail.com

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

إغلاق