چرا هوش مصنوعی واقعاً باهوش نیست – و چگونه می توانیم آن را تغییر دهیم

چرا هوش مصنوعی واقعاً باهوش نیست – و چگونه می توانیم آن را تغییر دهیم

نظرات بیان شده توسط همکاران کارآفرین خودشان هستند.

بیایید صادق باشیم: بیشتر آنچه امروز ما به آن هوش مصنوعی می گوییم ، واقعاً فقط با الگوی مربوط به اتوپیلوت است. به نظر می رسد تا زمانی که سطح را خراش دهید ، چشمگیر به نظر می رسد. این سیستم ها می توانند مقالات ایجاد کنند ، کد را تشکیل دهند و مکالمه را شبیه سازی کنند ، اما در هسته آنها ، آنها ابزارهای پیش بینی کننده ای هستند که روی محتوای خراشیده و بی نظیر آموزش دیده اند. آنها زمینه ، هدف یا پیامد را درک نمی کنند.

بنابراین جای تعجب نیست که در این رونق استفاده از هوش مصنوعی ، ما هنوز شاهد خطاهای اساسی ، مسائل و نقص های اساسی هستیم که بسیاری را به این سؤال می اندازد که آیا این فناوری واقعاً فایده ای خارج از تازگی دارد یا خیر.

این مدل های بزرگ زبان (LLM) شکسته نیستند. آنها بر روی پایه اشتباه ساخته شده اند. اگر می خواهیم هوش مصنوعی بیش از اتمام افکار خود انجام دهد ، باید به داده هایی که از آن یاد می گیرد تجدید نظر کنیم.

مرتبط: علیرغم نحوه به تصویر کشیدن رسانه ها ، هوش مصنوعی واقعاً باهوش نیست. در اینجا به همین دلیل است.

توهم اطلاعات

LLM های امروزی معمولاً روی موضوعات Reddit ، زباله های ویکی پدیا و محتوای اینترنت آموزش داده می شوند. این مانند آموزش دانش آموز با کتابهای درسی منسوخ و پر از خطا است. این مدلها از هوش تقلید می کنند ، اما آنها نمی توانند در هر جایی در نزدیکی سطح بشر استدلال کنند. آنها نمی توانند مانند یک شخص در محیط های پر فشار تصمیم بگیرند.

بازاریابی نرم و صاف را در اطراف این رونق هوش مصنوعی فراموش کنید. این همه به گونه ای طراحی شده است که ارزش ها را تورم نگه می دارد و صفر دیگری را به دور بودجه بعدی اضافه می کند. ما قبلاً عواقب واقعی را دیده ایم ، مواردی که درمان PR براق را دریافت نمی کنند. علائم توهم رباتهای پزشکی. مدلهای مالی در تعصب پخته می شوند. اتومبیل های خود رانندگی علائم توقف را اشتباه خوانده اند. اینها خطرات فرضی نیستند. آنها شکست های دنیای واقعی هستند که از داده های آموزش ضعیف و نادرست متولد می شوند.

و مشکلات فراتر از خطاهای فنی است – آنها به قلب مالکیت برسند. از نیویورک تایمز گرفته تا گتی تصاویر ، شرکت ها به دلیل استفاده از کار خود بدون رضایت ، از شرکت های هوش مصنوعی شکایت می کنند. این ادعاها در حال صعود به تریلیون ها هستند ، و برخی آنها را برای شرکت هایی مانند Anthropic دادخواستهای پایان کار می نامند. این نبردهای قانونی فقط مربوط به حق چاپ نیست. آنها پوسیدگی ساختاری را در نحوه ساخت هوش مصنوعی امروز در معرض نمایش قرار می دهند. تکیه بر محتوای قدیمی ، بدون مجوز یا مغرضانه برای آموزش سیستم های آینده در آینده ، یک راه حل کوتاه مدت برای یک مشکل بلند مدت است. این ما را به مدل های شکننده ای که در شرایط دنیای واقعی فرو می روند ، قفل می کند.

یک درس از یک آزمایش شکست خورده

سال گذشته ، کلود پروژه ای به نام “Project Vend” را اجرا کرد که در آن مدل آن مسئولیت اداره یک فروشگاه خودکار کوچک را بر عهده گرفت. این ایده ساده بود: یخچال را جمع کنید ، چت های مشتری را اداره کنید و سود خود را بدست آورید. در عوض ، این مدل به صورت رایگان ، روش های پرداخت توهم را از بین برد و کل تجارت را در هفته ها مخزن کرد.

شکست در کد نبود. در حین تمرین بود. این سیستم آموزش داده شده بود تا مفید باشد ، نه اینکه تفاوت های ظریف اداره یک تجارت را درک کند. نمی دانست چگونه حاشیه ها را وزن کند یا در برابر دستکاری مقاومت کند. این به اندازه کافی باهوش بود که مثل یک صاحب مشاغل صحبت کنم ، اما مثل یکی فکر نکنم.

چه چیزی باعث ایجاد تفاوت می شد؟ آموزش داده هایی که منعکس کننده قضاوت در دنیای واقعی بودند. نمونه هایی از افرادی که در هنگام افزایش سهام تصمیم می گیرند. این نوع داده هایی است که به مدل ها می آموزد که استدلال کنند ، نه فقط تقلید.

اما این خبر خوب است: راه بهتری وجود دارد.

مرتبط: هوش مصنوعی ما را جایگزین نمی کند تا اینکه خیلی بیشتر شبیه ما شود

آینده به داده های مرزی بستگی دارد

اگر مدل های امروز به عکس های استاتیک گذشته دامن زده شود ، آینده داده های هوش مصنوعی بیشتر به جلو خواهد رفت. این لحظاتی را به دست می آورد که افراد در حال وزن کردن گزینه ها ، سازگاری با اطلاعات جدید و تصمیم گیری در موقعیت های پیچیده و پرخاشگر هستند. این بدان معناست که نه تنها آنچه را که کسی گفت ، بلکه درک چگونگی ورود آنها به آن نقطه ، چه مبادله ای را در نظر گرفتند و چرا آنها یک مسیر را از مسیر دیگری انتخاب کردند.

این نوع داده ها در زمان واقعی از محیط هایی مانند بیمارستان ها ، کف معاملات و تیم های مهندسی جمع آوری می شود. این امر به جای اینکه از وبلاگ ها جدا شود ، از گردش کار فعال تهیه می شود – و به جای اینکه بدون رضایت گرفته شود ، با تمایل به آن کمک می شود. این همان چیزی است که به آن معروف است داده های مرزی، نوع اطلاعاتی که استدلال را ضبط می کند ، نه فقط خروجی. این امکان را به AI می دهد تا به جای حدس زدن ، یادگیری ، سازگاری و بهبود را داشته باشد.

چرا این برای تجارت مهم است

بازار هوش مصنوعی ممکن است به سمت تریلیون ها ارزش داشته باشد ، اما بسیاری از استقرارهای سازمانی در حال حاضر ضعف پنهان را نشان می دهند. مدلهایی که در معیارها عملکرد خوبی دارند ، اغلب در تنظیمات عملیاتی واقعی شکست می خورند. هنگامی که حتی پیشرفت های کوچک در دقت می تواند تعیین کند که آیا یک سیستم مفید یا خطرناک است ، مشاغل نمی توانند از کیفیت ورودی های خود چشم پوشی کنند.

همچنین فشار فزاینده ای از سوی تنظیم کننده ها و مردم وجود دارد تا اطمینان حاصل شود که سیستم های هوش مصنوعی اخلاقی ، فراگیر و پاسخگو هستند. قانون هوش مصنوعی اتحادیه اروپا ، در اوت 2025 به اجرا در آمد ، شفافیت شدید ، محافظت از حق چاپ و ارزیابی ریسک را با جریمه های سنگین برای نقض اعمال می کند. مدل های آموزش در مورد داده های بدون مجوز یا مغرضانه فقط یک خطر قانونی نیست. این یک شهرت است. این اعتماد را قبل از حمل و نقل محصولی از بین می برد.

سرمایه گذاری در داده های بهتر و روش های بهتر برای جمع آوری آن دیگر یک لوکس نیست. این یک الزام برای هر شرکت ساختمان هوشمند است که باید در مقیاس قابل اطمینان عمل کنند.

مرتبط: نگرانی های اخلاقی در حال ظهور در عصر هوش مصنوعی

یک مسیر به جلو

رفع AI با رفع ورودی های آن شروع می شود. تکیه بر خروجی گذشته اینترنت به ماشینهای دلیل از طریق پیچیدگی های امروزی کمک نمی کند. ایجاد سیستم های بهتر نیاز به همکاری بین توسعه دهندگان ، شرکت ها و افراد برای تهیه داده ها دارد که فقط دقیق نیستند بلکه اخلاقی نیز هستند.

Frontier Data پایه و اساس اطلاعات واقعی را ارائه می دهد. این به ماشین ها این فرصت را می دهد که از چگونگی حل مشکلات مردم ، نه فقط نحوه صحبت در مورد آنها ، بیاموزند. با این نوع ورودی ، هوش مصنوعی می تواند استدلال ، سازگاری و تصمیم گیری هایی را که در دنیای واقعی وجود دارد ، شروع کند.

اگر هدف هدف باشد ، زمان آن رسیده است که بازیافت اگزوز دیجیتال را متوقف کرده و شروع به درمان داده هایی مانند زیرساخت های مهم آن کنید.

بیایید صادق باشیم: بیشتر آنچه امروز ما به آن هوش مصنوعی می گوییم ، واقعاً فقط با الگوی مربوط به اتوپیلوت است. به نظر می رسد تا زمانی که سطح را خراش دهید ، چشمگیر به نظر می رسد. این سیستم ها می توانند مقالات ایجاد کنند ، کد را تشکیل دهند و مکالمه را شبیه سازی کنند ، اما در هسته آنها ، آنها ابزارهای پیش بینی کننده ای هستند که روی محتوای خراشیده و بی نظیر آموزش دیده اند. آنها زمینه ، هدف یا پیامد را درک نمی کنند.

بنابراین جای تعجب نیست که در این رونق استفاده از هوش مصنوعی ، ما هنوز شاهد خطاهای اساسی ، مسائل و نقص های اساسی هستیم که بسیاری را به این سؤال می اندازد که آیا این فناوری واقعاً فایده ای خارج از تازگی دارد یا خیر.

این مدل های بزرگ زبان (LLM) شکسته نیستند. آنها بر روی پایه اشتباه ساخته شده اند. اگر می خواهیم هوش مصنوعی بیش از اتمام افکار خود انجام دهد ، باید به داده هایی که از آن یاد می گیرد تجدید نظر کنیم.

بقیه این مقاله قفل شده است.

به کارآفرین بپیوندیدبا امروز برای دسترسی

مجله ترفندهای اینستاگرام

https://www.entrepreneur.com/science-technology/why-ai-isnt-truly-intelligent-and-how-we-can-change/495556

دیدگاهتان را بنویسید