تدرك حكومات العالم و قياداته المخاطر المصحوبة لتطور الذكاء الاصطناعي، و التي ما زلنا في المجتمع العلمي والفكري نحذر منها وخاصةً في المجتمعات المتكشفة والتي تفتقر إلى سياسات وإمكانيات حد تدفق البيانات المتعلقة بوضعها الحيوي و سيادتها المعرفية لإمكانيتها و مواردها الطبيعية، والتحديات التي تواجهها. فتنامي قدرات الذكاء الاصطناعي التوليدي، وتزايد الاعتماد عليه في المجالات الحيوية والكيميائية بغرض تطوير النظم الصحية و البيئية والغذائية، يمكن الوصول إلى معلومات حيوية حساسة وخطيرة مزدوجة الاستخدام.

ويعد تمكين الأفراد - بغض النظر عن المستوى المعرفي- من الوصول إلى هذه المعلومات والبيانات بلا رقابة عبر شات جي بي تي وغيره من أدوات الذكاء الاصطناعي التوليدي أحد عوامل القلق.

فبلا شك قدرات الذكاء الاصطناعي الابتكارية العالية تمكنه من الوصول إلى البيانات الضخمة وغير المنظمة والتي يستطيع تحليلها، و تصديرها إلى المستخدم بلا تمييز بين الضار والنافع منها.

ومثل هذه المعلومات قد توظف في تصنيع أو تطوير بعض المواد الضارة باستخدام مواد بسيطة يمكن الوصول إليها من قبل أفراد المجتمع كافة. لذا ينبغي التدخل السريع للحد من إنتاج المعلومات و المعارف المضرة والحساسة إلى عموم المجتمع. فانعدام التدخل السريع للحد من إنتاج وتصدير هذه المعلومات يحمل العديد من السيناريوهات التي لا تحمد عقباها.

ومما يزيد من عوامل القلق حيال الوضع الراهن ، تباطؤ وضع التشريعات والسياسات من قبل الجهات التنظيمية والتشريعية، مقابل التسارع في تطوير أدوات الذكاء الاصطناعي. و يُعزى هذا الأمر إلى محدودية المعلومات وفقدان العمق المعرفي الكافي، ومحدودية الاستعانة بالخبراء ذوي العلم والمعرفة بالتخصصات الحيوية و المخاطر المصاحبة لها.

وأجد شخصياً وكأحد الخبراء في مجال التقنيات الحيوية وخريجي الجامعات العريقة ذات الباع الكبيرفي وضع سياسات العلوم و التقنيات المتقدمة، إن عمل الجهات التشريعية و الرقابية المحلية ينبغي أن يستند بشكل كبير على توظيف إمكانيات الخبراء المحليين، في عمل مشترك مع المشرعين لتطوير التشريعات و التنظيمات، لمعالجة تنقيب البيانات وتحليلها، وحجب أي بيانات قد توظف بشكل ضار، والحد من الوصول إليها، ووضع التوصيات الضرورية والعاجلة حيال ذلك.

كما ينبغي مراقبة السباق الجاري بين الشركات التقنية الضخمة في ميدان تطوير تقنيات الذكاء الاصطناعي والتي تستمد كامل قوتها من البيانات التي تصل إليها، و توخي الحذر حيال كل ما هو مستحدث.

فمع إطلاق الشركات الكبرى كأبل لمشاريع دمج تقنيات الذكاء الاصطناعي التوليدي في هواتفها، فإننا سنشهد تعزيزا لوصول شريحة ضخمة من المستخدمين إلى البيانات مزدوجة الاستخدام. و من غير المستغرب أن يتطور هذا السباق في الأيام المقبلة بين عدد كبير من الشركات المطورة والمستثمرة، بغرض تحقيق مقاصد ربحية و تجارية وعبر تسليع البيانات.

و من المهم كذلك وضع التوصيات و السياسات المتعلقة بمستويات حساسية وخطر البيانات وصلاحيات الوصول إليها. و لابد من رفع الجاهزية والرقابة للتعامل مع أي مخاطر محتملة بشكل أمني و قانوني.

و لا يمكن بأي شكل من الأشكال الاعتماد على الذكاء الاصطناعي في تقييم و توليد المعارف، وإلغاء الذكاء البشري لذوي الخبرة و خاصةً في هذه المراحل التطويرية.

و بالتواصل مع بروفيسور برادلي -إحدى أعضاء الجمعية الأمريكية للذكاء الاصطناعي و أستاذ الذكاء الاصطناعي في كل من جامعة كولومبيا و جورج واشنطن- فإنه يوجد قلق مشترك حيال تطوير و استخدام الذكاء الاصطناعي التوليدي دولياً، يمتد إلى الأعماق السياسية والاقتصادية في دول العالم المختلفة.

لذا ينبغي للمختصين العمل جنباً إلى جنب لوضع التوصيات المتعلقة بسلامة استخدام الذكاء الاصطناعي و تحديد أي عناصر تقنية خطرة في الذكاء وحظرها، لتحقيق الاستفادة من التقنية وضمان سلامة وأمن المواطنين.