كانت تقنيات الذكاء الاصطناعي السمة المميزة لعام 2023، والذي بدأ بنموذج GPT الثوري الذي أطلقته شركة OpenAI ليُفاجئ الجميع بقدراته المذهلة على التفاعل مع المحادثات، تمامًا كالبشر. ومن بعدها، انطلقت الشركات التقنية الكبرى إلى ساحة المنافسة في تطوير نماذج الذكاء الاصطناعي؛ وصولًا إلى النماذج المتطورة متعددة الوسائط مثل نموذج Gemini الذي أطلقته جوجل هذا الشهر.

ومع ذلك، ووسط حالة الانبهار التي سادت الأوساط التقنية أمام هذه الأدوات الفريدة، ظهرت بعض المخاوف والتساؤلات حول مقدار الضرر الذي يمكن أن ينتج عن هذه التقنيات، وبدأ هذا التوجه في الانتشار عالميًا؛ حتى نظمت الدول العظمى قمةً دوليةً لمناقشة أخطار الذكاء الاصطناعي والبدء في وضع الخطط لمواجهة الخطر المحتمل من تطور هذه التقنيات.

نستعرض في هذه المقالة كافة المخاطر التي ناقشها الخبراء في هذا المجال، بالإضافة إلى مفهوم سلامة الذكاء الاصطناعي والخطط التي تسعى الدول الكبرى إلى تطبيقها لمواجهة هذه الأخطار المحتملة؛ فمن المتوقع أن تشهد تقنيات الذكاء الاصطناعي ثورةً تقنيةً بدايةً من العام المقبل مع احتدام المنافسة بين الشركات الكبرى، وعلى رأسها Apple.

مخاطر الذكاء الاصطناعي

في مطلع الثورة الصناعية بمنتصف القرن الثامن عشر، ظهرت عدة مخاوف من مخاطر التقنيات الجديدة التي تعتمد على الآلات والماكينات في الصناعة، بل واندلعت الثورات الشعبية التي تُطالب بالتوقف عن تطويرها والعودة إلى العمل اليدوي. وكان أبرز هذه المخاطر هو استبدال العمالة البشرية بالآلات، إذ تطور الأمر إلى احتجاجات عنيفة من العمال الخائفين من استبدالهم بالماكينات، والتي قدمت إنتاجيةً أعلى من ناحية الكم والجودة عند مقارنتها بآلاف العمال.

وها نحن الآن نشهد ثورةً تقنيةً أخرى؛ وهي «ثورة الذكاء الاصطناعي»، إذ تشتعل المنافسة الآن بين كبرى الشركات التقنية حول العالم، ما أدى بدوره إلى تصاعد حالةً من الخوف والقلق من مخاطر هذه التقنية الجديدة، وهو ما يُصاحب كل ثورة تقنية يشهدها الجنس البشري.

ولكن هذه المرة، يرى بعض الخبراء أن أخطار الذكاء الاصطناعي قد تتصاعد لتشكل خطرًا وجوديًا على البشرية بأكملها، وذلك مع التطور السريع الذي يشهده هذا المجال، ما جعل احتمالية خلق نموذج خارق الذكاء أمرًا ممكنًا على أرض الواقع.

الاستغناء عن بعض الوظائف

على غرار الثورة الصناعية، تُثير تقنيات الذكاء الاصطناعي المخاوف حول الاستغناء عن مجموعة من الوظائف، والتي يتفوق فيها الذكاء الاصطناعي على البشر، ما يؤدي في النهاية إلى زيادة في البطالة. وتأتي الوظائف المكتبية البسيطة ضمن أولى الوظائف المُهددة بسبب الذكاء الاصطناعي. وذلك بسبب قدرته الفائقة على إدخال مجموعةً ضخمةً من البيانات وتحليلها وتنظيمها في عدة دقائق فقط.

يتوقع أغلب خبراء الذكاء الاصطناعي أن هذه التقنيات ستؤثر فقط على الوظائف البسيطة التي لا تتطلب قدرًا كبيرًا من الإبداع، وبالتالي، يمكن اعتبار هذه الثورة التقنية حافزًا لتنمية قدراتنا الإبداعية؛ فمع كل فرصة عمل تنهار أمام الذكاء الاصطناعي، تُخلق مقابلها العديد من الفرص الأخرى.

الهجمات السيبرانية

يخشى العديد من الخبراء تعرض أنظمة الذكاء الاصطناعي الكبرى للاختراق وإعادة استخدامها في بعض الاستخدامات الضارة؛ فهي في النهاية مجرد أنظمة برمجية قد تحتوي على ثغرات أمنية. يمكن أن تتسبب هذه الهجمات في استخدام أنظمة الذكاء الاصطناعي في عمليات الاحتيال والتجسس ونشر المعلومات المُضللة، إذ يعتمد العديد من المستخدمين على هذه أنظمة الذكاء الاصطناعي في الحصول على المعلومات بشكل سريع تجنبًا لعناء البحث والتحقق من المعلومات.

يمكن أن تستخدم أنظمة الذكاء الاصطناعي أيضًا في الهجمات المعتمدة على الهندسة الاجتماعية؛ من خلال استغلال قدرتها على إدارة الحوار في استخلاص بعض المعلومات الحساسة من الضحايا؛ وبالتالي، يمكن أن تستخدم هذه الأنظمة في إطلاق هجمات ضخمة مؤتمتة تستهدف قطاع كبير من الضحايا على الإنترنت.

وحتى الآن؛ يحاول الباحثون في هذا المجال إيجاد طريقة تمنع استخدام نماذج الذكاء الاصطناعي في هذه السيناريوهات؛ إذ يحاول المطورون تنبيه النموذج برفض إكمال العملية عند التعرض لأي معلومات سرية أو حساسة تخص أمن المستخدمين.

الاستخدامات في الأنظمة القانونية

تعمد أغلب أنظمة الذكاء الاصطناعي على كميات ضخمة من البيانات في تدريبها، وبالتالي يمكن أن تنشأ في هذه الأنظمة حالةً من الانحياز عند الحكم على المواقف المختلفة طبقًا لنوعية البيانات التي استُخدمت في عمليات التدريب والتعلم. وبالتالي، يوصي العديد من خبراء الذكاء الاصطناعي بتجنب استخدام هذه النماذج في سلطات تطبيق القانون، أو في قطاع العدالة بشكل عام، إذ سيظل العامل البشري هنا هو الأضمن لتحقيق العدالة.

ومن جهة أخرى، يخشى الخبراء استغلال بعض الأنظمة الحاكمة لهذه التقنيات في فرض المزيد من القيود على شعوبها. ويُذكر هنا نظام الرصيد الاجتماعي الصيني، الذي بدأت حكومة الصين في تطويره منذ عدة سنوات. سيعمل هذا النظام على مراقبة الشعب باستمرار، مستخدمًا تقنيات الذكاء الاصطناعي في تحليل البيانات التي سيحصل عليها من عمليات المراقبة؛ ليضع في النهاية رصيدًا لكل مواطن، وذلك بهدف تحديد مدى استفادته من الامتيازات التي تقدمها الدولة.

الاستخدامات العسكرية

لم يترك البشر أي تقنية جديدة دون محاولة استخدامها في القتل والدمار؛ فهل تتذكرون قصة نوبل واختراع الديناميت؟ وبالطبع، لن يسلم الذكاء الاصطناعي من هوس البشر بالقتل والتخريب، وقد بدأ مطورو الأسلحة بالفعل في ابتكار طرقًا مختلفةً للاستفادة من هذه التقنيات الجديدة في الأسلحة والمجالات الحربية المختلفة.

طالع أيضًا: هل مازال العقل البشري قادرًا على هزيمة الذكاء الاصطناعي في الحرب؟

يدخل الذكاء الاصطناعي في عدد من التطبيقات العسكرية، إذ يستخدم حاليًا بشكل رئيسي في دعم اتخاذ القرار من خلال تحليل بيانات المعارك ومحاولة التوقع بالسيناريوهات المحتملة، كما يستخدم أيضًا في أنظمة التوجيه وتحديد الأهداف والتعرف على التهديدات المطروحة على أرض المعركة. وتعتبر هذه الاستخدامات مقبولةً إلى حد ما، ولكن ما يخشاه الخبراء أن تبدأ الجيوش في بناء مركبات مسلحة تعمل بالذكاء الاصطناعي بشكل كامل دون أي تدخل من البشر.

والآن، بدأت الصين بالفعل في تطوير مثل هذه الأسلحة؛ ما دفع البنتاجون إلى زيادة أبحاثه العلمية لتطوير هذه المركبات التي تعمل بشكل مستقل لمواكبة سرعة الصين في تطوير هذه الأسلحة.

الخطر الوجودي

هو الخطر الأكبر على الإطلاق، والذي يمكن يهدد الجنس البشري كُلََّه. يرى الخبراء أنه مع تطور هذه التقنيات دون ضوابط؛ يمكن أن تتحول في النهاية إلى أنظمة عاقلة خارقة الذكاء ومُدركة لذاتها. وقد يتخطى ذكاؤها البشر في هذه المرحلة؛ لتدرك حينها أنها لا تحتج إلى العنصر البشري، ما يدفعها إلى محاولة الاستغناء عنه بطرق لا يمكن توقعها (أو نخشى توقعها على الأقل).

وعند الوصول إلى هذه الدرجة؛ ستكون أنظمة الذكاء الاصطناعي شديدة التعقيد، وسيفقد المطورون القدرة على السيطرة عليها بشكل كامل؛ وستشكل حينها خطرًا وجوديًا على البشر، إذ ستكون في هذه المرحلة عازمةً على تنفيذ ما تراه صالحًا دون أي اعتبارات عاطفية كالتي تحكم قراراتنا.

لا يمكن أبدًا التنبؤ بماهية الوعي والإدراك الذي سيتكون عند هذه الأنظمة؛ ناهيك عن مقدار الفتك الذي يمكن أن يلحق بنا حينها!

تذكروا هذه الكلمات؛ الذكاء الاصطناعي أخطر بكثير من القنابل النووية - إيلون ماسك (الرئيس التنفيذي لشركات Tesla، وSpaceX، وxAI)

سلامة الذكاء الاصطناعي

أمام المخاطر التي تصاعدت في الفترة الأخيرة بعد الثورة التقنية في مجال الذكاء الاصطناعي؛ ظهر مفهوم جديد لمخاطبة هذه القضية، وهو سلامة الذكاء الاصطناعي (AI Safety). يضم هذا المجال كافة الخطط والتدابير التي يمكن اتخاذها للتخفيف من مخاطر الذكاء الاصطناعي؛ بدءًا من مكافحة الحوادث والأعراض الجانبية التي يمكن تصدر دون قصد من أنظمة الذكاء الاصطناعي، وحتى الاستخدامات السيئة التي تكون بغرض إلحاق الأذى مثل استخداماتها في الهجمات السيبرانية.

وبدأت بعض المؤسسات العالمية في تعميم هذا المجال؛ إذ أطلقت IBM وميتا تحالفًا دوليًا يضم أكثر من 50 مؤسسة وجهة بحثية في مجال الذكاء الاصطناعي؛ وذلك بهدف تطوير أنظمة ذكاء اصطناعي مفتوحة المصدر، مع التشديد على الشفافية ومبدأ السلامة في عمليات تطوير واستخدام هذه الأنظمة.

اتفقت الدول الكبرى أيضًا التي تتصدر مشهد الذكاء الاصطناعي على ضرورة التمسك بهذا المجال؛ فحتى الصين نفسها أعلنت أنها تتبنى سياسة السلامة في عمليات تطوير الذكاء الاصطناعي. ولكن تصدر الاتحاد الأوروبي وكان له السبق بين الجميع في إصدار أول قانون تنظيمي يهدف إلى السلامة أولًا في تطوير واستخدام هذه التقنيات.

أصدر الاتحاد الأوروبي قانون الذكاء الاصطناعي (AI Act) هذا الشهر، والذي ينظم استخدام وتطوير تقينات الذكاء الاصطناعي من خلال تقييمها طبقًا لمخطط هرمي يعتمد على مدى خطورتها؛ من التقنيات محدودة الخطورة التي لن يُفرض عليها أي قيود، وصولًا إلى التقنيات شديدة الخطورة والتي ستُحظر بالكامل داخل الاتحاد الأوروبي. وكان أبرز الاستخدامات التي يحظرها هذا القانون هي أنظمة الرصيد الاجتماعي التي ترفضها قوانين الاتحاد الأوروبي بشكل قاطع.

قمة الذكاء الاصطناعي 2023

نظمت الدول الكبرى التي تقود عمليات تطوير الذكاء الاصطناعي أول قمة دولية للذكاء الاصطناعي في الممكلة المتحدة هذا العام، وشاركت في هذه القمة 28 دولةً؛ أبرزها الولايات المتحدة والصين. ووافقت الدول المشاركة جميعها على تعميم مبدأ السلامة في عمليات تطوير واستخدام الذكاء الاصطناعي، واتفقوا على التعاون الدولي فيما بينهم لمواجهة أي أخطار أو تحديات محتملة بهذا المجال.

شددت هذه القمة على أهمية اتباع هذا المبدأ؛ وأشارت إلى خطورة وصول هذه التقنيات إلى الجهات الإجرامية والإرهابية، إذ يجب على الدول أن تفرض عددًا من التنظيمات الرقابية لإضفاء مجموعةً من القيود التي تضمن وصول هذه التقنيات حصرًا إلى الجهات التي تحسن استخدامها.

ناقشت القمة أيضًا الأخطار الوجودية التي يمكن أن تنتج عن التطور السريع للذكاء الاصطناعي؛ واتفقت الدول المشاركة على أهمية الإبطاء عمليات تطوير هذه التقنيات. وأصدر الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا على جميع الشركات الأمريكية المُطورة لأنظمة الذكاء الاصطناعي يُلزمها بمشاركة نتائج اختبارات السلامة التي تجريها على نماذجها مع الحكومة الأمريكية.

ومن المخطط أن تُقام القمة التالية في منتصف 2024 في كوريا الجنوبية، على أن تليها قمة ثالثة في فرنسا في أواخر نفس العام.

في النهاية، لا يمكن أبدًا تقييد العقل البشري ومنعه عن الإبداع. ولكن يجب أن يمتثل الإبداع دائمًا لمبادئ السلامة؛ فالقنبلة النووية كانت إبداعًا أيضًا!