در یکی از موارد که متخصصان آن را «خطرناک» توصیف کردند، گوگل به مبتلایان سرطان لوزالمعده توصیه کرده که از غذاهای پرچرب پرهیز کنند. متخصصان گفتند این توصیه دقیقا برعکس آن چیزی است که باید پیشنهاد شود و ممکن است خطر مرگ بیماران را افزایش دهد.
در نمونهای دیگر که «نگرانکننده» خوانده شد، این شرکت اطلاعات جعلی درباره آزمایشهای حیاتی عملکرد کبد ارائه کرده بود؛ موضوعی که میتواند باعث شود افراد مبتلا به بیماریهای جدی کبدی، بهاشتباه تصور کنند سالم هستند.
جستوجوهای گوگل درباره آزمایشهای سرطان زنان نیز اطلاعات «کاملا نادرست» ارائه داده بود؛ اطلاعاتی که به گفته متخصصان ممکن است افراد علایم واقعی بیماری را نادیده بگیرند.
این تحقیق گاردین در حالی منتشر میشود که نگرانیها مبنی بر اینکه دادههای تولیدشده توسط هوش مصنوعی میتواند کاربران را سردرگم کند افزایش یافته است.
در نوامبر سال گذشته، یک مطالعه نشان داد چتباتهای هوش مصنوعی مشورههای مالی نادرست ارائه کردهاند و نگرانیهای مشابهی درباره خلاصهسازی خبرها نیز مطرح شده است.
استفانی پارکر، مدیر دیجیتال نهاد خیریه مری کیوری مستقر در بریتانیا، به گاردین گفت: «مردم در لحظات نگرانی و بحران به اینترنت مراجعه میکنند. اگر اطلاعاتی که دریافت میکنند نادرست باشد، میتواند بهطور جدی به سلامتشان آسیب بزند.»
پس از آنکه شماری از گروهها، نهادهای خیریه و متخصصان صحی نگرانیهایی را مطرح کردند، گاردین چندین مورد از اطلاعات نادرست صحی را در مرورهای هوش مصنوعی گوگل شناسایی کرد.
پامیلا هیلی، مدیر اجرایی یک نهاد صحی کبد در بریتانیا، گفت این خلاصههای هوش مصنوعی نگرانکنندهاند: «بسیاری از مبتلایان به بیماری کبد تا مراحل پایانی هیچ علامتی ندارند، به همین دلیل آزمایش بسیار مهم است. اما آنچه مرورهای هوش مصنوعی گوگل معرفی میکند، میتواند بهطور چشمگیری با معیارهای واقعی تفاوت داشته باشد.» او هشدار داد که این موضوع خطرناک است؛ زیرا ممکن است برخی افراد با بیماری جدی کبدی تصور کنند نتیجهشان طبیعی است و سپس برای پیگیری درمان مراجعه نکنند.
در جستوجوی «علایم و آزمایشهای سرطان واژن»، آزمایش پاپاسمیر بهاشتباه بهعنوان آزمایش سرطان واژن معرفی شده بود؛ در حالیکه این آزمایش مربوط به بررسی سلامت دهانه رحم است.
آتنا لامنیسوس، مدیر اجرایی نهاد خیریه «ایو اپیل» در حوزه سرطان، گفت: «این آزمایش برای تشخیص سرطان نیست و قطعا برای تشخیص سرطان واژن کاربرد ندارد. این اطلاعات کاملا نادرست است.» او افزود: «موضوع نگرانکننده دیگر این بود که خلاصه هوش مصنوعی با انجام عین جستوجو، هر بار تغییر میکرد و پاسخ متفاوتی میداد که از منابع مختلف گرفته شده بود. این یعنی مردم بسته به زمان جستوجو پاسخهای متفاوتی میگیرند و این قابل قبول نیست.»
لامنیسوس گفت: «برخی نتایجی که دیدهایم واقعا نگرانکننده است و میتواند زنان را در معرض خطر قرار دهد.»
گاردین همچنین دریافت که مرورگرهای هوش مصنوعی گوگل برای جستوجوهای مربوط به اختلالات سلامت روان نیز نتایج گمراهکننده ارائه کردهاند. استیون باکلی، رئیس بخش اطلاعات نهاد خیریه «مایند»، گفت: «این موضوع برای ما بهعنوان یک نهاد خیریه نگرانی بزرگی است.»
او افزود برخی خلاصهها درباره اختلالاتی مانند روانپریشی و اختلالات خوردن «مشورههای بسیار خطرناک» ارائه کرده و «نادرست، آسیبزا یا موجب دوری مردم از جستوجوی کمک» میشوند.
با اینحال گوگل گفت اکثریت قریب به اتفاق دادههای هوش مصنوعی این شرکت دقیق و مفید هستند و این شرکت بهطور پیوسته بهبود کیفیت را دنبال میکند.
این شرکت همچنین گفت هرگاه مرورگرهای هوش مصنوعی محتوای وب را نادرست تفسیر کنند، مطابق سیاستها اقدام خواهد کرد.