ابزار OpenAI مورد استفاده پزشکان “Whisper” توهم‌آور است: مطالعه

با این حال، تحقیقات جدید نشان می‌دهد که Whisper «توهم می‌کند» یا جملاتی را که هیچ‌کس نگفته است، به متن مکالمات اضافه کرده است، و این سؤال را مطرح می‌کند که در صورت بروز خطا، مراکز پزشکی با چه سرعتی باید هوش مصنوعی را اتخاذ کنند.

به گزارش آسوشیتدپرس، یک محقق دانشگاه میشیگان توهم را در 80 درصد رونویسی های Whisper پیدا کرد. یک توسعه‌دهنده ناشناس در نیمی از بیش از 100 ساعت رونویسی توهمات را پیدا کرد. مهندس دیگری تقریباً در تمام 26000 رونوشت که با Whisper ایجاد کردند، اشتباهاتی را یافت.

مرتبط: نتایج جستجوی جدید هوش مصنوعی گوگل از قبل توهم‌آور هستند – به کاربران می‌گویند سنگ بخورند و سس پیتزا را با چسب درست کنند.

محققان در بهار سال 2023، 312 مورد از «کلیه عبارات یا جملات توهم‌آمیز، که به هیچ شکلی در فایل صوتی اصلی وجود نداشت» پیدا کردند.

محققان نوشتند: «کار ما نشان می‌دهد که نگرانی‌های جدی در رابطه با عدم دقت Whisper به دلیل توهمات غیرقابل پیش‌بینی وجود دارد.

محققان می‌گویند که این مطالعه می‌تواند به معنای سوگیری توهم در Whisper یا تمایل آن به درج نادرستی بیشتر برای یک گروه خاص باشد – و نه فقط برای افراد مبتلا به آفازی.

Whisper هفت میلیون مکالمه پزشکی را از طریق Nabla، در The Verge رونویسی کرده است.

مجله ترفندهای اینستاگرام

https://www.entrepreneur.com/business-news/openai-tool-used-by-doctors-whisper-is-hallucinating/482007

OpenAI سازنده ChatGPT دو سال پیش Whisper را به عنوان ابزار هوش مصنوعی معرفی کرد که گفتار را به متن تبدیل می کند. اکنون، این ابزار توسط شرکت مراقبت های بهداشتی هوش مصنوعی Nabla و 45000 پزشک آن برای کمک به رونویسی مکالمات پزشکی در بیش از 85 سازمان، مانند مراقبت های بهداشتی دانشگاه آیووا، استفاده می شود.

در اوایل سال جاری، محققان دانشگاه کرنل، دانشگاه نیویورک، دانشگاه واشنگتن و دانشگاه ویرجینیا مطالعه‌ای را منتشر کردند که نشان می‌داد چند بار سرویس گفتار به متن Whisper OpenAI زمانی که مجبور به رونویسی 13140 بخش صوتی با یک توهم می‌شد. میانگین طول 10 ثانیه منبع صدا از AphasiaBank TalkBank گرفته شده است، یک پایگاه داده حاوی صدای افراد مبتلا به آفازی، یک اختلال زبانی که برقراری ارتباط را دشوار می کند.

مرتبط: گزارش ها حاکی از آن است که OpenAI بیش از یک میلیون ساعت از ویدیوهای YouTube را برای آموزش آخرین مدل هوش مصنوعی خود استفاده کرده است.

در میان رونوشت‌های توهم‌آمیز، 38 درصد حاوی زبان مضری مانند خشونت یا کلیشه‌ها بودند که با بافت مکالمه مطابقت نداشتند.

نلسون اظهار داشت: “هیچکس تشخیص اشتباه نمی خواهد.”

مرتبط: اقتصاددان MIT می گوید هوش مصنوعی «تغییر انقلابی» نیست و مزایای آن «اغراق آمیز» است

آلوندرا نلسون، استاد مؤسسه مطالعات پیشرفته در پرینستون، نیوجرسی، به AP گفت: رونویسی اشتباه از مکالمات بین پزشکان و بیماران می تواند “عواقب بسیار شدید” داشته باشد.

بر اساس یافته‌های ما، ما پیشنهاد می‌کنیم که این نوع سوگیری توهم می‌تواند برای هر گروه جمعیتی با اختلالات گفتاری که ناروانی‌های بیشتری را به همراه دارد (مانند سخنرانان با سایر اختلالات گفتاری مانند نارسایی صدا) ایجاد شود. [disorders of the voice]، افراد بسیار مسن یا غیر زبان مادری)” محققان بیان کردند.

دیدگاهتان را بنویسید