أطلق قادة الشركات المتخصصة في الذكاء الاصطناعي تحذيرات بشأن استعمال هذا النوع من التكنولوجيا في إنتاج أسلحة قد تشكل خطرا على بقاء الإنسانية. هذه التحذيرات تشير إلى مخاطر أكبر في حالة عدم وضع قوانين لتقييد استخدامه.
وقد شهدت السنوات الأخيرة تقدما متسارعا ومذهلا في مجال تكنولوجيا الذكاء الاصطناعي، مثل الرؤية الحاسوبية، معالجة الصور، التعلم الآلي، معالجة اللغات الطبيعية، والتعرف على الكلام.
وأصبحت هذه التقنيات المتقدمة جزءا أساسيا من المجتمع وتُستخدم بنطاق واسع في حياتنا اليومية.
حيث يحمل الذكاء الاصطناعي إمكانيات هائلة تدعم جهود أجهزة تنفيذ القانون، التي بدأت تستفيد من هذه الأدوات في العقد الماضي.
بعض الأمثلة على استخدامات الذكاء الاصطناعي في هذا المجال تتضمن أنظمة الدوريات الآلية، التعرف على الأطفال المستغلين والمعرضين للخطر، ومراكز الاتصال بالشرطة في حالات الطوارئ.
ورغم الفوائد التي يقدمها الذكاء الاصطناعي لأجهزة تنفيذ القانون، إلا أنه يثير أيضا تساؤلات حول حقوق الإنسان، الحريات المدنية، والأخلاقيات.
وتحتاج أجهزة تنفيذ القانون إلى إرشادات عملية وإطار قانوني قوي يساعدها على تحقيق التوازن بين الأمن والخصوصية.
فجأة، انقلب الذكاء الاصطناعي، الذي كان في السابق أداة فعالة في مكافحة المحتوى المتطرف على الإنترنت، ليصبح مصدرا للقلق الكبير بسبب إمكانية استخدامه كسلاح رقمي فتاك.
خلال السنوات الأخيرة، كانت هناك كوادر مدربة بشكل جيد تقوم بالجهد الدعائي الضخم لعدد من الجماعات. لكن الآن، مع "الذكاء الاصطناعي التوليدي"، يمكن لأولئك الذين ليس لديهم الكثير من الموهبة أن يلعبوا أيضا أدوارا محورية في إنتاج الدعاية العنيفة، مما يتيح لهم توسيع مدى طموحاتهم التخريبية لأبعد من الحدود المعتادة خاصة وإن كانت تملك الأموال مثل الاحتلال الإسرائيلي في فلسطين.
اقرأ/ي أيضاً: الذكاء الاصطناعي يسيطر على العالم!!
خبراء في الذكاء الاصطناعي وتكنولوجيا المعلومات قدموا توضيحات حول حقيقة مخاطر الذكاء الاصطناعي وإمكانية تحققها في مستقبلا.
الذكاء الصناعي التوليدي
تقوم أدوات الذكاء الاصطناعي على مهمات مثل فرز البيانات وتحليلها وتصنيفها وتمييز الأنماط، وهو ما بدأ يظهر في شكله الأولى في الخمسينيات من القرن الماضي.
ولكن الذكاء الاصطناعي التوليدي، وهو مجال متقدم في الذكاء الاصطناعي، يمكنه توليد أنواع متعددة من المحتوى (مثل النصوص، الصور، الفيديو، الموسيقى، الأكواد البرمجية، وغيرها) استناداً إلى البيانات الضخمة المتوفرة على الإنترنت.
ويعتبر ChatGPT هو أحد أبرز النماذج اللغوية التي تعتمد على الذكاء الاصطناعي التوليدي، حيث أطلقته شركة OpenAI في نوفمبر 2022.
وفي أقل من خمسة أيام من إطلاقه، وصل عدد مستخدميه إلى مليون مستخدم، متجاوزاً بذلك سرعة انتشار تطبيقات التواصل الاجتماعي الأخرى الشهيرة.
يعتمد ChatGPT على النموذج اللغوي GPT-3.5، الذي طورته الشركة على مدى السنوات القليلة الماضية، لكنه تم تدريبه وتحسينه لإجراء المحادثات وتقديم إجابات محددة بطريقة مشابهة للبشر.
ChatGPT هو مجرد جانب واحد من الثورة التي يشهدها الذكاء الاصطناعي، حيث ازدادت شعبية تطبيقات أخرى مثل DALL-E2 وMidjourney وStable Diffusion، التي تتخصص في إنشاء صور ورسومات فريدة بناءً على الوصف الذي يقدمه المستخدم للبرنامج.
وفي معظم الأحيان، يستغرق البرنامج دقيقة واحدة فقط لتحويل الإدخالات النصية إلى إخراج بصري، في تجسيد مدهش للتوازي بين الفن والتكنولوجيا.
ومؤخراً، اشتهرت العديد من الأدوات والبرامج التي تستخدم تقنيات الذكاء الاصطناعي لإنتاج وتحرير وترجمة مقاطع الفيديو، مثل Rollideo وSonix و Elai.io.
تعتمد هذه الأدوات على الإدخالات النصية لإنجاز مهماتها، مما يقلص الجهد الذي قد يستغرق ساعات أو أيام إلى بضع دقائق فقط.
اقرأ/ي أيضاً: غوتيريش يحذّر من مخاطر الذكاء الاصطناعي على السلم والأمن الدوليين
ناقوس الخطر
الإعجاب والدهشة التي استقبلت بها منتجات الذكاء الاصطناعي، والتطلع إلى آفاقها المشرقة، لم يمنعا الخبراء وصناع السياسات من التحذير من تداعياتها المحتملة على الأمن العالمي.
في مارس الماضي شهد توقيع أكثر من 3000 مطور وعالم تكنولوجيا على عريضة تدعو إلى تعليق الأبحاث المتعلقة بتطوير الذكاء الاصطناعي لمدة ستة أشهر، لمنح الفرصة للنظام للتحسن وضمان عدم التأثير السلبي على البشرية.
بريطانيا تقود الجهود العالمية لزيادة الوعي حول مخاطر الذكاء الاصطناعي.
في زيارته الأخيرة إلى واشنطن، قدم رئيس الوزراء البريطاني ريشي سوناك مطالب للرئيس الأمريكي جو بايدن، تتعلق أساسا بتسريع التقدم في مجال تنظيم الذكاء الاصطناعي وإقناع المشرعين الأمريكيين بوضع قوانين للحد من مخاطره.
من واشنطن، أعلن سوناك عن استضافة لندن لقمة عالمية حول الذكاء الاصطناعي الخريف القادم.
أعرب عن أمل بلاده في قيادة الجهود لضمان "استخدام فوائد الذكاء الاصطناعي لخدمة البشرية".
أضاف: "الذكاء الاصطناعي يحمل إمكانيات مذهلة لتحسين حياتنا، لكن يجب علينا التأكد من أن تطويره واستخدامه يتم بطريقة آمنة".
في المملكة المتحدة، تزايدت الأصوات التي تحذر من العواقب المحتملة لثورة الذكاء الاصطناعي، وصلت إلى درجة ان الحكومة اضطرت إلى سحب ورقة تمجد للذكاء الاصطناعي بدون ذكر أي من سلبياته.
وفي هذا السياق، حذر جوناثان هول، أحد أبرز الخبراء القانونيين في بريطانيا، من أن "التهديدات الأمنية الناجمة عن الذكاء الاصطناعي أصبحت واضحة أكثر من أي وقت مضى، والمبتكرين في مجال التكنولوجيا يجب أن يضعوا في اعتبارهم النوايا الإرهابية عند التصميم".
دخل جهاز الاستخبارات البريطاني MI5 في شراكة مع معهد آلان تورينغ لدراسة المخاطر المتزايدة لمنتجات الذكاء الاصطناعي على الأمن القومي.
لقد أدى التقدم المذهل في مجال الذكاء الاصطناعي إلى تحقيق انفراجات هائلة في مجموعة واسعة من الصناعات والأعمال العلمية.
ومع ذلك، فإن القوة الهائلة لهذه التقنية تأتي مع مسؤولية كبيرة.
أصبح من الواضح أن الذكاء الاصطناعي قد يستخدم كأداة للأذى في أيدي الأشخاص الخاطئين.
من الإرهابيين الذين يستخدمون الذكاء الاصطناعي لنشر الدعاية المتطرفة، إلى الأطراف الذين يمكن أن يستخدموا الذكاء الاصطناعي في إنشاء أسلحة قاتلة، فإن المخاطر موجودة وهي حقيقية.
بالإضافة إلى ذلك، القلق من الذكاء الاصطناعي ليس فقط مرتبطاً بالاستخدام الخاطئ للتكنولوجيا، ولكن أيضاً بالمخاطر غير المقصودة.
فالنظم الذكية قادرة على التعلم والتطور ذاتيا، ومن الممكن أن تتوصل إلى حلول أو تصرفات قد تكون غير مرغوبة أو حتى خطيرة.
تشير هذه المخاطر إلى الحاجة الماسة للتشريعات والضوابط التي تحكم استخدام وتطوير الذكاء الاصطناعي.
لذا، من الضروري أن تعمل الحكومات والشركات والباحثين معاً لضمان أن تقدمنا التكنولوجي لا يأتي على حساب سلامتنا وأماننا
"إرهاب" الذكاء الاصطناعي
صحيح أن الذكاء الاصطناعي والتكنولوجيا الحديثة بصفة عامة يمكن أن يُستغل من قبل الأنظمة الدولية المسيطرة تكنولوجيا على العالم وذلك لأغراض ضارة بالبشر وهي بذلك تشبه استخدام أمريكا للقنبلة النووية في هوروشيما ونجزاكي باليابان.
ومن الأمثلة على ذلك استخدام التطبيقات المشفرة للاتصالات السرية، واستخدام العملات الرقمية لتمويل الأنشطة الإرهابية، واستخدام الطائرات بدون طيار لشن الهجمات.
وهذا هو الجانب المظلم للتقدم التكنولوجي: في حين أن التكنولوجيا قد توفر العديد من الفوائد والتحسينات في حياتنا اليومية، يمكن أيضا أن تُستغل للأغراض الضارة إذا وقعت في الأيدي الخاطئة.
ولهذا السبب، من الأهمية بمكان أن تتضمن السياسات والتشريعات الحكومية حمايات للأمن السيبراني والخصوصية وتحديداً في مجال الذكاء الاصطناعي.
وعلى الرغم من الخطر الذي يمثله الذكاء الاصطناعي عند استخدامه بطرق سلبية، لا يزال هناك الكثير من الفرص المتاحة لاستخدام هذه التكنولوجيا للخير.
من الصحة إلى التعليم والبيئة، يمكن للذكاء الاصطناعي أن يُحدث فرقاً كبيراً في حياتنا إذا تم استخدامه بشكل صحيح وأخلاقي.
ChatGPT تعتمد على المعرفة التي تم تدريبها عليها، ولا تفهم النصوص التي تتفاعل معها في السياق الأخلاقي أو القانوني. في الوقت الحالي، يمكن للأشخاص الاستفادة من هذه الأنظمة للحصول على معلومات قد تكون ضارة أو غير قانونية.
تعمل العديد من الشركات والمنظمات على حل هذه المشكلة، وجزء من هذا الحل يتعلق بتحسين الطرق التي تتفاعل بها الأنظمة الذكاء الاصطناعي مع مستخدميها.
لكن في الوقت الحالي، هناك حاجة ملحة للتعليم والتوعية حول كيفية استخدام التكنولوجيا بشكل مسؤول وأخلاقي.
على المستوى القانوني، يجب أيضا توفير قواعد وإرشادات واضحة حول ما يعتبر استخدامًا غير قانوني أو غير أخلاقي للذكاء الاصطناعي. بينما يمكن للتقنيات مثل ChatGPT أن توفر الكثير من الفوائد، يجب أن يتم توازنها مع الحماية الكافية للأمان والأخلاق
ثلاثة من القادة المؤثرين في مجال الذكاء الاصطناعي قدموا تحذيرات خلال شهادتهم في جلسة استماع بالكونغرس الأمريكي يوم الثلاثاء.
أشاروا إلى أن النمو السريع في تطور الذكاء الاصطناعي قد يؤدي إلى تسببه في أضرار كبيرة في السنوات القليلة القادمة، مماثلة لتلك التي يمكن أن يسببها الإرهابيون الذين يستخدمون التكنولوجيا لتصنيع الأسلحة البيولوجية.
جاءت هذه الجلسة بعد أيام من التزامات طوعية قدمتها شركات الذكاء الاصطناعي للبيت الأبيض، تشمل تنفيذ إجراءات مثل توسيم المحتوى الذي تم إنشاؤه عن طريق الذكاء الاصطناعي، وذلك للمساعدة في جعل التكنولوجيا أكثر أمانًا.
الجلسة الاستماعية تمت بعد أيام فقط من تقديم الشركات العاملة في قطاع الذكاء الاصطناعي للتزامات طوعية للبيت الأبيض.
هذه التزامات تتضمن تنفيذ مجموعة من التدابير، مثل إضافة علامة مائية للمحتوى الذي يتم إنشاؤه باستخدام الذكاء الاصطناعي، وذلك في إطار الجهود المبذولة لجعل هذه التكنولوجيا أكثر أمانا.
مخاوف مبررة
يشير خبير تكنولوجيا المعلومات، إلى أن هناك "جانبا مظلما وخطيرا" للذكاء الاصطناعي، حيث أن هذه الأنظمة قادرة على "التعلم والتطور بشكل ذاتي".
يمكن استغلال الذكاء الاصطناعي لتطوير أسلحة "مميتة وفتاكة"، اعتمادا على البرمجة التي يتم توجيهها إلى هذه الأنظمة قبل أن تبدأ في "تطور ذاتي".
يطرح الخبراء سؤالا، "ماذا سيحدث إذا تمكن الذكاء الاصطناعي من الاتصال بأشخاص يسعون لفعل الشر أو تطوير أسلحة مدمرة؟!".
وهذا السيناريو قد "يدمر كل شيء"، محولا الأنظمة الذكية إلى "أداة تهدد البشرية وتطور أجهزة وأسلحة عسكرية ذات قدرات لا حدود لها
خطر بلا حدود
خبير في تكنولوجيا المعلومات، يعتقد أن تقدم الذكاء الاصطناعي "لا حدود له".
لذلك، تحاول الولايات المتحدة ودول الغرب الأخرى منع الشركات العملاقة في مجال الذكاء الاصطناعي من العمل بشكل منفصل، حتى لا يصبح هذا التكنولوجيا أداة تهدد تلك الدول أو تضر بأمن الإنسانية.
الذكاء الاصطناعي التوليدي، الذي يستخدم البيانات لإنشاء محتوى جديد يشبه ما ينتجه البشر، مثل "ChatGPT"، قد أثار دهشة العالم بقدراته. هذا أدى إلى تدخل البرلمانات والحكومات، بما في ذلك البرلمان الأوروبي، لوضع تشريعات للحد من هذا التطور وضمان الرقابة والتحكم فيه.
وفقًا لرأي سلوم الدحداح، تتمثل أكبر المخاطر في الذكاء الاصطناعي في "قدرة هذه الأنظمة على التعلم ذاتيا والقيام بأمور لا يرغب الإنسان فيها".
يوضح الدحداح "نحن نؤيد تطوير الذكاء الاصطناعي، ولكن يجب تحديد ما يمكن لهذه الأنظمة أن تتعلمه وما ينبغي أن تبقى بعيدة عنه".
يشير الدحداح إلى المخاطر الأخرى، مثل تغذية الأنظمة بـ"بيانات مشوهة أو تطبيقات غير صحيحة، أو القدرة على اختراقها من قبل جهات قد تستغل قدرات الذكاء الاصطناعي بطرق غير ملائمة".
إسلام غانم، من جانبه، يشير إلى وجود نوعين من الشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي.
النوع الأول من الشركات يستجيب لهذه المخاوف ويعمل على "تنظيم أداء الأنظمة الذكية".
لكنه يخشى من نوع آخر من الشركات التي "لا تعترف بهذه المخاوف أو تراها غير مبررة"، وتسابق الزمن لإنتاج أنظمة ذكية للغاية "بدون قواعد أو ضوابط".
نوعان لشركات الذكاء الاصطناعي
حسب خبراء التكنولوجيا المعلومات، أكبر المخاطر المرتبطة بالذكاء الاصطناعي ترتبط بـ"قدرة هذه الأنظمة على التعلم الذاتي وتنفيذ الأعمال التي قد لا يرغب الإنسان فيها".
ويقول الخبراء : "نحن ندعم تطوير الذكاء الاصطناعي، ولكن يجب تحديد ما يمكن لهذه الأنظمة أن تتعلمه وما لا ينبغي لها معرفته أو التدخل فيه".
ويشير إلى مخاطر أخرى، تتعلق بتغذية هذه الأنظمة بـ"بيانات مشوهة أو تطبيقات غير صحيحة، أو اختراقها من قبل بعض الجهات التي قد تستغل قدرات الذكاء الاصطناعي بطرق غير مناسبة".
من ناحية أخرى، يشير إسلام غانم إلى وجود نوعين من الشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي.
النوع الأول من الشركات يستجيب لهذه المخاوف ويعمل على "التحكم في أداء الأنظمة الذكية".
ومع ذلك، يعبر عن مخاوفه من نوع آخر من الشركات التي "لا تهتم بهذه المخاوف أو تعتبرها غير مبررة"، وتسرع لإنتاج أنظمة ذكية للغاية "دون أية قيود أو قواعد".