با این حال، تحقیقات جدید نشان میدهد که Whisper «توهم میکند» یا جملاتی را که هیچکس نگفته است، به متن مکالمات اضافه کرده است، و این سؤال را مطرح میکند که در صورت بروز خطا، مراکز پزشکی با چه سرعتی باید هوش مصنوعی را اتخاذ کنند.
به گزارش آسوشیتدپرس، یک محقق دانشگاه میشیگان توهم را در 80 درصد رونویسی های Whisper پیدا کرد. یک توسعهدهنده ناشناس در نیمی از بیش از 100 ساعت رونویسی توهمات را پیدا کرد. مهندس دیگری تقریباً در تمام 26000 رونوشت که با Whisper ایجاد کردند، اشتباهاتی را یافت.
مرتبط: نتایج جستجوی جدید هوش مصنوعی گوگل از قبل توهمآور هستند – به کاربران میگویند سنگ بخورند و سس پیتزا را با چسب درست کنند.
محققان در بهار سال 2023، 312 مورد از «کلیه عبارات یا جملات توهمآمیز، که به هیچ شکلی در فایل صوتی اصلی وجود نداشت» پیدا کردند.
محققان نوشتند: «کار ما نشان میدهد که نگرانیهای جدی در رابطه با عدم دقت Whisper به دلیل توهمات غیرقابل پیشبینی وجود دارد.
محققان میگویند که این مطالعه میتواند به معنای سوگیری توهم در Whisper یا تمایل آن به درج نادرستی بیشتر برای یک گروه خاص باشد – و نه فقط برای افراد مبتلا به آفازی.
Whisper هفت میلیون مکالمه پزشکی را از طریق Nabla، در The Verge رونویسی کرده است.
مجله ترفندهای اینستاگرام
https://www.entrepreneur.com/business-news/openai-tool-used-by-doctors-whisper-is-hallucinating/482007
OpenAI سازنده ChatGPT دو سال پیش Whisper را به عنوان ابزار هوش مصنوعی معرفی کرد که گفتار را به متن تبدیل می کند. اکنون، این ابزار توسط شرکت مراقبت های بهداشتی هوش مصنوعی Nabla و 45000 پزشک آن برای کمک به رونویسی مکالمات پزشکی در بیش از 85 سازمان، مانند مراقبت های بهداشتی دانشگاه آیووا، استفاده می شود.
در اوایل سال جاری، محققان دانشگاه کرنل، دانشگاه نیویورک، دانشگاه واشنگتن و دانشگاه ویرجینیا مطالعهای را منتشر کردند که نشان میداد چند بار سرویس گفتار به متن Whisper OpenAI زمانی که مجبور به رونویسی 13140 بخش صوتی با یک توهم میشد. میانگین طول 10 ثانیه منبع صدا از AphasiaBank TalkBank گرفته شده است، یک پایگاه داده حاوی صدای افراد مبتلا به آفازی، یک اختلال زبانی که برقراری ارتباط را دشوار می کند.
مرتبط: گزارش ها حاکی از آن است که OpenAI بیش از یک میلیون ساعت از ویدیوهای YouTube را برای آموزش آخرین مدل هوش مصنوعی خود استفاده کرده است.
در میان رونوشتهای توهمآمیز، 38 درصد حاوی زبان مضری مانند خشونت یا کلیشهها بودند که با بافت مکالمه مطابقت نداشتند.
نلسون اظهار داشت: “هیچکس تشخیص اشتباه نمی خواهد.”
مرتبط: اقتصاددان MIT می گوید هوش مصنوعی «تغییر انقلابی» نیست و مزایای آن «اغراق آمیز» است
آلوندرا نلسون، استاد مؤسسه مطالعات پیشرفته در پرینستون، نیوجرسی، به AP گفت: رونویسی اشتباه از مکالمات بین پزشکان و بیماران می تواند “عواقب بسیار شدید” داشته باشد.
بر اساس یافتههای ما، ما پیشنهاد میکنیم که این نوع سوگیری توهم میتواند برای هر گروه جمعیتی با اختلالات گفتاری که ناروانیهای بیشتری را به همراه دارد (مانند سخنرانان با سایر اختلالات گفتاری مانند نارسایی صدا) ایجاد شود. [disorders of the voice]، افراد بسیار مسن یا غیر زبان مادری)” محققان بیان کردند.