لطالما كان شعار الأوساط الأكاديمية «النشر أو الضياع».
ولكن ماذا يحدث عندما لا يكتب المنشورات أساتذة في طريقهم إلى الزوال، بل تتولى تأليفها أجهزة ذكاء اصطناعي منتجة على الدوام؟.
مع شق الذكاء الاصطناعي طريقه إلى الكتابة العلمية، يحاول أحد الباحثين الرد بأداة قد تغير قواعد اللعبة.
تطور متزايد
تستمر نماذج اللغة الكبيرة مثل ChatGPT في التطور بشكل متزايد، وهناك مخاوف متزايدة بشأن إساءة استخدامها المحتملة في الدوائر الأكاديمية والعلمية.
يمكن لهذه النماذج إنتاج نص يحاكي الكتابة البشرية، مما يثير المخاوف بشأن نزاهة الأدبيات العلمية.
الآن، طور أحمد عابدين حامد، وهو زميل أبحاث زائر في جامعة بينجهامبتون، خوارزمية رائدة قد تكون بمثابة الرصاصة الفضية في هذه اللعبة عالية المخاطر المتعلقة بالأصالة الأكاديمية.
والرصاصة الفضية هي وحسب بعض المعتقدات الشعبية الفلكلورية لدى بعض الدول، غالبا ما تكون بمثابة الحل المباشر وشبه السحري لمشكلة صعبة.
إن ابتكار حامد، الذي أطلق عليه اسم xFakeSci، ليس مجرد أداة كشف عادية. بل إنه خوارزمية تعلم آلي متطورة يمكنها اكتشاف الأوراق التي تم إنشاؤها بواسطة الذكاء الاصطناعي بدقة مذهلة تصل إلى 94 %.
وهذا ليس مجرد تحسن هامشي؛ بل إنه قفزة نوعية، حيث يضاعف تقريبًا معدل نجاح تقنيات استخراج البيانات التقليدية.
بحث رئيس
يقول حامد في بيان «بحثي الرئيس هو المعلوماتية الطبية الحيوية، ولكن لأنني أعمل مع المنشورات الطبية والتجارب السريرية والموارد عبر الإنترنت وتعدين وسائل التواصل الاجتماعي، فأنا دائمًا أشعر بالقلق بشأن صحة المعرفة التي ينشرها شخص ما».
ومخاوف حامد ليست بلا أساس، فقد شهد الوباء العالمي الأخير ـ كوفيد 19 ـ زيادة في الأبحاث الزائفة، وخاصة في المقالات الطبية الحيوية، مما يسلط الضوء على الحاجة الملحة إلى أساليب تحقق قوية.
تحت الاختبار
في دراسة نُشرت في مجلة Scientific Reports، قام حامد وزميله البروفيسور شين دونج وو من جامعة هيفاي للتكنولوجيا في الصين، بوضع برنامج xFakeSci تحت الاختبار. حيث توليا إنشاء منصة اختبار مكونة من 150 مقالة مزيفة باستخدام ChatGPT، موزعة بالتساوي على 3 موضوعات طبية ساخنة: الزهايمر والسرطان والاكتئاب. ثم تمت مقارنة هذه الأوراق التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعدد متساوٍ من المقالات الأصلية حول نفس الموضوعات.
وقد كشفت الخوارزمية عن أنماط مميزة تميز المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عن الأوراق التي ألفها البشر.
ويكمن أحد الاختلافات الرئيسة في استخدام الثنائيات - أزواج الكلمات التي تظهر معًا بشكل متكرر، مثل «التجارب السريرية» أو «الأدبيات الطبية الحيوية».
ومن المدهش أن الأوراق التي تم إنشاؤها بواسطة الذكاء الاصطناعي تحتوي على عدد أقل من الثنائيات الفريدة، ولكنها استخدمتها بشكل أكثر انتشارًا في جميع أنحاء النص.
«أول ما يلفت الانتباه هو أن عدد الثنائيات كان قليلًا جدًا في العالم المزيف، ولكن في العالم الحقيقي، كان الثنائيون أكثر ثراءً بكثير»، كما يلاحظ حامد. «أيضًا، في العالم المزيف، بالرغم من حقيقة وجود عدد قليل جدًا من الثنائيات، فإنهم كانوا مرتبطين بكل شيء آخر».
اختلاف أساسي
يعتقد الباحثون أن هذا النمط ينبع من الاختلاف الأساسي في أهداف نماذج الذكاء الاصطناعي والعلماء البشريين، ففي حين يهدف ChatGPT إلى إنتاج نص مقنع حول موضوع معين، يركز العلماء الحقيقيون على الإبلاغ بدقة عن أساليبهم ونتائجهم التجريبية.
«نظرًا لأن ChatGPT لا يزال محدودًا في معرفته، فإنه يحاول إقناعك باستخدام الكلمات الأكثر أهمية» يوضح حامد. «ليس من وظيفة العالم أن يقدم لك حجة مقنعة. تقدم ورقة البحث الحقيقية تقريرًا صادقًا عما حدث أثناء التجربة والطريقة المستخدمة. يتعلق ChatGPT بالعمق في نقطة واحدة، في حين أن العلم الحقيقي يتعلق بالاتساع».
أكثر ضبابية
يحذر مؤلفو الدراسة من أنه مع تطور نماذج لغة الذكاء الاصطناعي، قد يصبح الخط الفاصل بين الأدبيات العلمية الحقيقية والمزيفة أكثر ضبابية.
يمكن أن تصبح أدوات مثل xFakeSci بوابات أساسية، مما يساعد في الحفاظ على سلامة المنشورات العلمية في عصر المحتوى المولد بواسطة الذكاء الاصطناعي.
ومع ذلك، يظل حامد متفائلًا بحذر. وفي حين يفخر بمعدل اكتشاف xFakeSci المذهل الذي يبلغ 94%، فإنه يسارع إلى الإشارة إلى أن هذا لا يزال يترك مجالاً للتحسين.
«نحن بحاجة إلى أن نكون متواضعين بشأن ما أنجزناه. لقد قمنا بشيء مهم للغاية من خلال رفع مستوى الوعي»، يلاحظ الباحث، معترفًا بأن 6 من كل 100 ورقة مزيفة لا تزال تفلت من الشبكة.
توسيع قدرات
في المستقبل، يخطط حامد لتوسيع قدرات xFakeSci إلى ما هو أبعد من الطب، والدخول في مجالات علمية أخرى وحتى العلوم الإنسانية.
وما الهدف النهائي؟.. إنه خوارزمية عالمية قادرة على اكتشاف المحتوى الذي يولده الذكاء الاصطناعي في جميع المجالات - بغض النظر عن نموذج الذكاء الاصطناعي المستخدم لإنشائه.
في غضون ذلك، هناك أمر واحد واضح، وهو أن المعركة ضد العلوم الزائفة التي يولدها الذكاء الاصطناعي بدأت للتو. ولكن مع أدوات مثل xFakeSci، أصبح المجتمع العلمي مجهزًا بشكل أفضل لمواجهة هذا التحدي بشكل مباشر، مما يضمن بقاء السعي وراء المعرفة في أيدي البشر.
المنهجية
استخدم الباحثون نهجًا مزدوجًا في دراستهم. أولاً، استخدموا ChatGPT لتوليد 150 ملخصًا علميًا مزيفًا، موزعة بالتساوي على 3 مواضيع طبية: الزهايمر والسرطان والاكتئاب. ثم تمت مقارنة هذه الملخصات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعدد متساوٍ من الملخصات العلمية الحقيقية من PubMed حول نفس الموضوعات.
تم تطوير خوارزمية xFakeSci لتحليل هذه النصوص، مع التركيز على ميزتين رئيستين: تواتر وتوزيع الثنائيات (أزواج الكلمات التي تظهر غالبًا معًا) وكيفية ارتباط هذه الثنائيات بكلمات ومفاهيم أخرى في النص.
تستخدم الخوارزمية تقنيات التعلم الآلي لتحديد الأنماط التي تميز النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عن المقالات العلمية التي كتبها البشر.
النتائج الرئيسية
كشفت الدراسة عن اختلافات كبيرة بين المقالات العلمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي وتلك التي كتبها البشر.
تميل النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى احتواء عدد أقل من العبارات الثنائية الفريدة ولكنها تستخدمها على نطاق أوسع في جميع أنحاء الوثيقة.
أظهرت خوارزمية xFakeSci معدل دقة مثير للإعجاب يصل إلى 94% في تحديد العلوم المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، متفوقة بشكل كبير على طرق تحليل البيانات التقليدية، والتي تحقق عادةً معدلات دقة تتراوح بين 38% و52%.
حدود الدراسة
ركز البحث في المقام الأول على الملخصات العلمية وليس المقالات الكاملة، والتي قد تظهر أنماطًا مختلفة. وتم إنشاء المحتوى الناتج عن الذكاء الاصطناعي باستخدام إصدار محدد من ChatGPT، وقد تختلف النتائج مع نماذج الذكاء الاصطناعي المختلفة أو مع تطور هذه النماذج.
بالإضافة إلى ذلك، تغطي الدراسة حاليًا 3 موضوعات طبية فقط، ولا يزال يتعين اختبار مدى قابلية تطبيقها على مجالات علمية أخرى. كما أقر الباحثون أنه حتى مع دقتها العالية، لا تزال أداة xFakeSci تفشل في اكتشاف 6 % من الأوراق المزيفة، مما يشير إلى وجود مجال للتحسين.
المناقشة والخلاصات
تسلط الدراسة الضوء على التحدي المتزايد المتمثل في الحفاظ على النزاهة العلمية في عصر نماذج لغة الذكاء الاصطناعي المتقدمة. وتشير إلى أن أدوات مثل xFakeSci يمكن أن تلعب دورًا حاسمًا في عملية النشر العلمي، مما يساعد في تصفية العلوم المزيفة التي يولدها الذكاء الاصطناعي.
ويؤكد الباحثون على الحاجة إلى التطوير المستمر لمثل هذه الأدوات لمواكبة قدرات الذكاء الاصطناعي المتطورة. كما يؤكدون على أهمية زيادة الوعي بهذه القضية في المجتمع العلمي ويدعون إلى تطوير المبادئ التوجيهية والسياسات الأخلاقية فيما يتعلق باستخدام الذكاء الاصطناعي في الكتابة والنشر العلمي.
نتائج الدراسة
ـ اختلافات كبيرة بين المقالات العلمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي وتلك التي كتبها البشر
ـ تميل النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى احتواء عدد أقل من العبارات الثنائية الفريدة
ـ النصوص المنشأة بالذكاء الاصطتاعي تستخدم العبارات الثنائية على نطاق أوسع
ـ خوارزمية xFakeSci حددت 94% من العلوم المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي
ـ طرق تحليل البيانات التقليدية تكشف عادة مت بين 38% و52% من الوثائق المنشأة بالذكاء الاصطناعي
ولكن ماذا يحدث عندما لا يكتب المنشورات أساتذة في طريقهم إلى الزوال، بل تتولى تأليفها أجهزة ذكاء اصطناعي منتجة على الدوام؟.
مع شق الذكاء الاصطناعي طريقه إلى الكتابة العلمية، يحاول أحد الباحثين الرد بأداة قد تغير قواعد اللعبة.
تطور متزايد
تستمر نماذج اللغة الكبيرة مثل ChatGPT في التطور بشكل متزايد، وهناك مخاوف متزايدة بشأن إساءة استخدامها المحتملة في الدوائر الأكاديمية والعلمية.
يمكن لهذه النماذج إنتاج نص يحاكي الكتابة البشرية، مما يثير المخاوف بشأن نزاهة الأدبيات العلمية.
الآن، طور أحمد عابدين حامد، وهو زميل أبحاث زائر في جامعة بينجهامبتون، خوارزمية رائدة قد تكون بمثابة الرصاصة الفضية في هذه اللعبة عالية المخاطر المتعلقة بالأصالة الأكاديمية.
والرصاصة الفضية هي وحسب بعض المعتقدات الشعبية الفلكلورية لدى بعض الدول، غالبا ما تكون بمثابة الحل المباشر وشبه السحري لمشكلة صعبة.
إن ابتكار حامد، الذي أطلق عليه اسم xFakeSci، ليس مجرد أداة كشف عادية. بل إنه خوارزمية تعلم آلي متطورة يمكنها اكتشاف الأوراق التي تم إنشاؤها بواسطة الذكاء الاصطناعي بدقة مذهلة تصل إلى 94 %.
وهذا ليس مجرد تحسن هامشي؛ بل إنه قفزة نوعية، حيث يضاعف تقريبًا معدل نجاح تقنيات استخراج البيانات التقليدية.
بحث رئيس
يقول حامد في بيان «بحثي الرئيس هو المعلوماتية الطبية الحيوية، ولكن لأنني أعمل مع المنشورات الطبية والتجارب السريرية والموارد عبر الإنترنت وتعدين وسائل التواصل الاجتماعي، فأنا دائمًا أشعر بالقلق بشأن صحة المعرفة التي ينشرها شخص ما».
ومخاوف حامد ليست بلا أساس، فقد شهد الوباء العالمي الأخير ـ كوفيد 19 ـ زيادة في الأبحاث الزائفة، وخاصة في المقالات الطبية الحيوية، مما يسلط الضوء على الحاجة الملحة إلى أساليب تحقق قوية.
تحت الاختبار
في دراسة نُشرت في مجلة Scientific Reports، قام حامد وزميله البروفيسور شين دونج وو من جامعة هيفاي للتكنولوجيا في الصين، بوضع برنامج xFakeSci تحت الاختبار. حيث توليا إنشاء منصة اختبار مكونة من 150 مقالة مزيفة باستخدام ChatGPT، موزعة بالتساوي على 3 موضوعات طبية ساخنة: الزهايمر والسرطان والاكتئاب. ثم تمت مقارنة هذه الأوراق التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعدد متساوٍ من المقالات الأصلية حول نفس الموضوعات.
وقد كشفت الخوارزمية عن أنماط مميزة تميز المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عن الأوراق التي ألفها البشر.
ويكمن أحد الاختلافات الرئيسة في استخدام الثنائيات - أزواج الكلمات التي تظهر معًا بشكل متكرر، مثل «التجارب السريرية» أو «الأدبيات الطبية الحيوية».
ومن المدهش أن الأوراق التي تم إنشاؤها بواسطة الذكاء الاصطناعي تحتوي على عدد أقل من الثنائيات الفريدة، ولكنها استخدمتها بشكل أكثر انتشارًا في جميع أنحاء النص.
«أول ما يلفت الانتباه هو أن عدد الثنائيات كان قليلًا جدًا في العالم المزيف، ولكن في العالم الحقيقي، كان الثنائيون أكثر ثراءً بكثير»، كما يلاحظ حامد. «أيضًا، في العالم المزيف، بالرغم من حقيقة وجود عدد قليل جدًا من الثنائيات، فإنهم كانوا مرتبطين بكل شيء آخر».
اختلاف أساسي
يعتقد الباحثون أن هذا النمط ينبع من الاختلاف الأساسي في أهداف نماذج الذكاء الاصطناعي والعلماء البشريين، ففي حين يهدف ChatGPT إلى إنتاج نص مقنع حول موضوع معين، يركز العلماء الحقيقيون على الإبلاغ بدقة عن أساليبهم ونتائجهم التجريبية.
«نظرًا لأن ChatGPT لا يزال محدودًا في معرفته، فإنه يحاول إقناعك باستخدام الكلمات الأكثر أهمية» يوضح حامد. «ليس من وظيفة العالم أن يقدم لك حجة مقنعة. تقدم ورقة البحث الحقيقية تقريرًا صادقًا عما حدث أثناء التجربة والطريقة المستخدمة. يتعلق ChatGPT بالعمق في نقطة واحدة، في حين أن العلم الحقيقي يتعلق بالاتساع».
أكثر ضبابية
يحذر مؤلفو الدراسة من أنه مع تطور نماذج لغة الذكاء الاصطناعي، قد يصبح الخط الفاصل بين الأدبيات العلمية الحقيقية والمزيفة أكثر ضبابية.
يمكن أن تصبح أدوات مثل xFakeSci بوابات أساسية، مما يساعد في الحفاظ على سلامة المنشورات العلمية في عصر المحتوى المولد بواسطة الذكاء الاصطناعي.
ومع ذلك، يظل حامد متفائلًا بحذر. وفي حين يفخر بمعدل اكتشاف xFakeSci المذهل الذي يبلغ 94%، فإنه يسارع إلى الإشارة إلى أن هذا لا يزال يترك مجالاً للتحسين.
«نحن بحاجة إلى أن نكون متواضعين بشأن ما أنجزناه. لقد قمنا بشيء مهم للغاية من خلال رفع مستوى الوعي»، يلاحظ الباحث، معترفًا بأن 6 من كل 100 ورقة مزيفة لا تزال تفلت من الشبكة.
توسيع قدرات
في المستقبل، يخطط حامد لتوسيع قدرات xFakeSci إلى ما هو أبعد من الطب، والدخول في مجالات علمية أخرى وحتى العلوم الإنسانية.
وما الهدف النهائي؟.. إنه خوارزمية عالمية قادرة على اكتشاف المحتوى الذي يولده الذكاء الاصطناعي في جميع المجالات - بغض النظر عن نموذج الذكاء الاصطناعي المستخدم لإنشائه.
في غضون ذلك، هناك أمر واحد واضح، وهو أن المعركة ضد العلوم الزائفة التي يولدها الذكاء الاصطناعي بدأت للتو. ولكن مع أدوات مثل xFakeSci، أصبح المجتمع العلمي مجهزًا بشكل أفضل لمواجهة هذا التحدي بشكل مباشر، مما يضمن بقاء السعي وراء المعرفة في أيدي البشر.
المنهجية
استخدم الباحثون نهجًا مزدوجًا في دراستهم. أولاً، استخدموا ChatGPT لتوليد 150 ملخصًا علميًا مزيفًا، موزعة بالتساوي على 3 مواضيع طبية: الزهايمر والسرطان والاكتئاب. ثم تمت مقارنة هذه الملخصات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعدد متساوٍ من الملخصات العلمية الحقيقية من PubMed حول نفس الموضوعات.
تم تطوير خوارزمية xFakeSci لتحليل هذه النصوص، مع التركيز على ميزتين رئيستين: تواتر وتوزيع الثنائيات (أزواج الكلمات التي تظهر غالبًا معًا) وكيفية ارتباط هذه الثنائيات بكلمات ومفاهيم أخرى في النص.
تستخدم الخوارزمية تقنيات التعلم الآلي لتحديد الأنماط التي تميز النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عن المقالات العلمية التي كتبها البشر.
النتائج الرئيسية
كشفت الدراسة عن اختلافات كبيرة بين المقالات العلمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي وتلك التي كتبها البشر.
تميل النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى احتواء عدد أقل من العبارات الثنائية الفريدة ولكنها تستخدمها على نطاق أوسع في جميع أنحاء الوثيقة.
أظهرت خوارزمية xFakeSci معدل دقة مثير للإعجاب يصل إلى 94% في تحديد العلوم المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، متفوقة بشكل كبير على طرق تحليل البيانات التقليدية، والتي تحقق عادةً معدلات دقة تتراوح بين 38% و52%.
حدود الدراسة
ركز البحث في المقام الأول على الملخصات العلمية وليس المقالات الكاملة، والتي قد تظهر أنماطًا مختلفة. وتم إنشاء المحتوى الناتج عن الذكاء الاصطناعي باستخدام إصدار محدد من ChatGPT، وقد تختلف النتائج مع نماذج الذكاء الاصطناعي المختلفة أو مع تطور هذه النماذج.
بالإضافة إلى ذلك، تغطي الدراسة حاليًا 3 موضوعات طبية فقط، ولا يزال يتعين اختبار مدى قابلية تطبيقها على مجالات علمية أخرى. كما أقر الباحثون أنه حتى مع دقتها العالية، لا تزال أداة xFakeSci تفشل في اكتشاف 6 % من الأوراق المزيفة، مما يشير إلى وجود مجال للتحسين.
المناقشة والخلاصات
تسلط الدراسة الضوء على التحدي المتزايد المتمثل في الحفاظ على النزاهة العلمية في عصر نماذج لغة الذكاء الاصطناعي المتقدمة. وتشير إلى أن أدوات مثل xFakeSci يمكن أن تلعب دورًا حاسمًا في عملية النشر العلمي، مما يساعد في تصفية العلوم المزيفة التي يولدها الذكاء الاصطناعي.
ويؤكد الباحثون على الحاجة إلى التطوير المستمر لمثل هذه الأدوات لمواكبة قدرات الذكاء الاصطناعي المتطورة. كما يؤكدون على أهمية زيادة الوعي بهذه القضية في المجتمع العلمي ويدعون إلى تطوير المبادئ التوجيهية والسياسات الأخلاقية فيما يتعلق باستخدام الذكاء الاصطناعي في الكتابة والنشر العلمي.
نتائج الدراسة
ـ اختلافات كبيرة بين المقالات العلمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي وتلك التي كتبها البشر
ـ تميل النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى احتواء عدد أقل من العبارات الثنائية الفريدة
ـ النصوص المنشأة بالذكاء الاصطتاعي تستخدم العبارات الثنائية على نطاق أوسع
ـ خوارزمية xFakeSci حددت 94% من العلوم المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي
ـ طرق تحليل البيانات التقليدية تكشف عادة مت بين 38% و52% من الوثائق المنشأة بالذكاء الاصطناعي