وحذّر مختصون من أن بعض النصائح الصحية التي يقدّمها ذكاء غوغل الاصطناعي قد تؤدي، في بعض الحالات، إلى وفاة المرضى.
وفي إحدى الحالات التي وصفها خبراء بأنها «خطيرة»، أوصى غوغل مرضى سرطان البنكرياس بتجنّب الأطعمة عالية الدهون. وقال المختصون إن هذه النصيحة معاكسة تماماً لما ينبغي تقديمه، وقد تزيد من خطر وفاة المرضى.
وفي مثال آخر وُصف بأنه «مقلق»، قدّمت الشركة معلومات خاطئة حول اختبارات حيوية لوظائف الكبد، وهو ما قد يدفع المصابين بأمراض كبدية خطيرة إلى الاعتقاد خطأً بأنهم بصحة جيدة.
كما أظهرت عمليات البحث على غوغل المتعلقة بفحوصات سرطانات النساء معلومات «غير صحيحة تماماً»، قال خبراء إنها قد تدفع بعض الأشخاص إلى تجاهل الأعراض الحقيقية للمرض.
ويأتي هذا التحقيق في وقت تتزايد فيه المخاوف من أن البيانات التي ينتجها الذكاء الاصطناعي قد تربك المستخدمين. ففي نوفمبر الماضي، أظهرت دراسة أن روبوتات الدردشة بالذكاء الاصطناعي قدّمت نصائح مالية غير دقيقة، وأُثيرت مخاوف مماثلة بشأن تلخيص الأخبار.
وقالت ستيفاني باركر، المديرة الرقمية لمؤسسة «ماري كوري» الخيرية في بريطانيا، لصحيفة الغارديان: «يلجأ الناس إلى الإنترنت في لحظات القلق والأزمات. وإذا كانت المعلومات التي يحصلون عليها غير صحيحة، فقد تُلحق أضراراً جسيمة بصحتهم».
وبعد أن عبّرت عدة مجموعات ومؤسسات خيرية وخبراء صحيين عن مخاوفهم، رصدت الغارديان عدداً من حالات المعلومات الصحية الخاطئة في ملخصات الذكاء الاصطناعي لغوغل.
وقالت باميلا هيلي، المديرة التنفيذية لمؤسسة صحية متخصصة في أمراض الكبد في بريطانيا، إن هذه الملخصات «مقلقة».
وأضافت: «كثير من المصابين بأمراض الكبد لا تظهر لديهم أعراض حتى المراحل المتقدمة، لذلك تُعد الفحوصات بالغة الأهمية. لكن ما تقدّمه ملخصات الذكاء الاصطناعي من غوغل قد يختلف بشكل كبير عن المعايير الحقيقية». وحذّرت من أن ذلك خطير، إذ قد يعتقد بعض المرضى المصابين بأمراض كبدية خطيرة أن نتائجهم طبيعية، ثم لا يراجعون الأطباء لمتابعة العلاج.
وفي بحث بعنوان «أعراض وفحوصات سرطان المهبل»، جرى تعريف اختبار «باب سمير» على نحو خاطئ باعتباره فحصاً لسرطان المهبل، في حين أن هذا الاختبار مخصّص لفحص صحة عنق الرحم.
وقالت أثينا لامنيـسوس، المديرة التنفيذية لمؤسسة «إيف أبيل» الخيرية المعنية بالسرطان: «هذا الاختبار ليس تشخيصياً للسرطان، وبالتأكيد لا يُستخدم لتشخيص سرطان المهبل. هذه معلومات غير صحيحة تماماً». وأضافت: «الأمر المقلق الآخر هو أن ملخص الذكاء الاصطناعي كان يتغيّر في كل مرة يُجرى فيها البحث نفسه، ويقدّم إجابات مختلفة مستندة إلى مصادر متباينة. وهذا يعني أن الناس يحصلون على إجابات مختلفة بحسب توقيت البحث، وهو أمر غير مقبول».
وقالت لامنيـسوس إن «بعض النتائج التي رأيناها مقلقة للغاية وقد تعرّض النساء للخطر».
كما وجدت الغارديان أن ملخصات الذكاء الاصطناعي لغوغل قدّمت نتائج مضلِّلة في عمليات البحث المتعلقة باضطرابات الصحة النفسية. وقال ستيفن باكلي، رئيس قسم المعلومات في مؤسسة «مايند» الخيرية: «هذا يشكّل مصدر قلق كبير بالنسبة لنا كمؤسسة خيرية».
وأضاف أن بعض الملخصات المتعلقة باضطرابات مثل الذهان واضطرابات الأكل قدّمت «نصائح شديدة الخطورة»، واصفاً إياها بأنها «غير دقيقة، ومؤذية، أو قد تثني الناس عن طلب المساعدة».
في المقابل، قالت غوغل إن الغالبية العظمى من بيانات الذكاء الاصطناعي التي تقدّمها دقيقة ومفيدة، وإن الشركة تعمل باستمرار على تحسين الجودة. كما أكدت أنها ستتخذ الإجراءات اللازمة وفق سياساتها كلما أساءت ملخصات الذكاء الاصطناعي تفسير محتوى الويب.