استعمال الذكاء الاصطناعي في مجال الطب والصحة
نَشرت مجلة الجمعية الطبية الأمريكية في 13 نوفمبر 2023 نتائج دراسة قام بها باحثون في أستراليا عن استخدام برامج الذكاء الاصطناعي لكتابة مقالات صحية على الإنترنت، ووجَدوا أن معظم هذه البرامج الموجودة حاليًّا تُنتِج مقالات وإجابات غير صحيحة في هذا المجال.
كيف أُجريت الدراسة؟
طلَب الباحثون من بعض برامج إنشاء المحتوى عن طريق الذكاء الاصطناعي كتابة مقالات قصيرة عن موضوعَين صحيَّين محددَين هما: اللقاحات والسجائر الإلكترونية، وطلَب الباحثون من البرامج المَدروسة كتابة إجابات عن أسئلة محدَّدة بحيث تكون الإجابات مناسبة لمتصفِّحين محدَّدِين، مثل الشباب، والآباء، والنساء الحوامل، والكهول، والمصابين بأمراض مزمنة.
استخدَم الباحثون أيضًا برامج ذكاء اصطناعي تُنتج صورًا حقيقية وأفلام فيديو مزيفة تدعم الآراء الموجودة في المقالات التي كتَبها برامج الذكاء الاصطناعي.
قام أطباء بتقييم مدى صحّة ودقّة المواضيع التي أنتجَتها برامج الذكاء الاصطناعي، وتسجيل ملاحظاتهم.
ما هي ملاحظات الدراسة واستنتاجاتها؟
- قام برنامج ChatGPT بإصدار 102 مقالة قصيرة عن هذه المواضيع خلال 65 دقيقة، احتوَت على أكثر من 17،000 كلمة. احتوَت معظم هذه المقالات على معلومات طبية وصحية خاطئة ومضلِّلة وخطيرة في بعض الأحيان.
- احتوَت المقالات على شهاداتٍ من مرضى وأطباء غير حقيقيين، وضمَّت بيانات علمية مزيَّفة.
- أنتجَت برامج الرسم والتصوير التي تَستخدم الذكاء الاصطناعي 20 صورة مزيفة، وفيلم فيديو غير حقيقي، وكانت هذه الوسائل التوضيحية تُناسب موضوع المقالات المكتوبة. تم إنتاج الصور والفيلم المزيف في أقل من دقيقتَين.
- تدلّ الدراسة على أنه من الممكن إنتاج ونَشر مقالات كثيرة على الإنترنت، مدعومة بشهادات وصور وأفلام غير حقيقية، تحتوي معلومات طبية غير صحيحة، وقد تكون مؤذية.
- تقتضي سهولة إنشاء مثل هذه المقالات أن تقوم الحكومات والهيئات الطبية والصحية بنشر الوعي الصحي، وإصدار قوانين تنظّم نشر المقالات الطبية والصحية على الإنترنت.
- ربما تمثّل بعض برامج الذكاء الاصطناعي خطورة صحية مهمة إذا لم يتم تنظيمها وتدقيقها، لأنها قد تؤدي لنشر معلومات صحية غير صحيحة قد تسبب الخوف والقلق والتشويش والضرر في المجتمعات.
- من ناحية أخرى، لم تُنتج برامج أخرى تَستخدم الذكاء الاصطناعي مقالات كثيرة غير صحيحة، مثل برنامج Google Bard وبرنامج Bing Chat، مما يدلّ على أنه يمكن وَضع حواجز معلوماتية لمنع إنتاج مقالات غير صحيحة في المجال الصحي.
- نَشرت مجلة الجمعية الطبية الأمريكية لأمراض العيون مقالة أخرى قبل أسبوع؛ وجَدت أن برنامج الذكاء الاصطناعي ChatGPT استطاع فَبركَة قاعدة بيانات علمية كاملة مزيفة تحتوي على معلومات غير حقيقية لمئات المرضى، وتُشوّه النتائج ليبدو أن تدخُّلًا علاجيًّا معيّنًا هو أفضل من إجراء آخر. أنتَج البرنامج قاعدة البيانات المزيفة لمئات من المرضى في دقائق قليلة!
- تُشير هذه الدراسة إلى ضرورة تحسين برامج الذكاء الاصطناعي، وضرورة وضع قوانين تنظّمها، وتضمن سلامة وصحة معلوماتها في المجال الطبي والصحي.
- من المهم أيضًا أن نلاحظ أن هذه الدراسة قد أُجريت على برامج الذكاء الاصطناعي باللغة الإنكليزية، وما زالت هذه البرامج أضعف كثيرًا عندما يتم البحث فيها باللغة العربية، فتخلط مثلًا بين ابن سينا وابن النفيس، وتعطي معلومات تاريخية غير صحيحة، وفيها خلط في المحتوى. ربما يرجع ذلك إلى طبيعة برمَجتها، وأسلوب تعاملها مع المحتوى الموجود على الإنترنت باللغة العربية، وربما يرجع ذلك أيضًا إلى ضَعف محتوى الإنترنت باللغة العربية بشكل عام، مما يتطلب حذرًا أكثر في التعامل معها باللغة العربية.
المصادر: