خطرات پنهان استفاده از هوش مصنوعی تولیدی در تجارت شما
نظرات بیان شده توسط همکاران کارآفرین خودشان هستند.
هوش مصنوعی ، اگرچه برای چندین دهه به عنوان یک رشته در علوم کامپیوتر تأسیس شد ، اما در سال 2022 با ظهور هوش مصنوعی تولید شد. علی رغم بلوغ خود هوش مصنوعی به عنوان یک رشته علمی ، مدل های بزرگ زبان بسیار نابالغ هستند.
کارآفرینان ، به ویژه آنهایی که پیشینه فنی ندارند ، مشتاق استفاده از LLMS و AIS مولد به عنوان فعال کننده تلاش های تجاری خود هستند. در حالی که منطقی است که از پیشرفت های فناوری برای بهبود عملکرد فرآیندهای تجاری استفاده کنید ، در مورد هوش مصنوعی ، باید با احتیاط انجام شود.
امروزه بسیاری از رهبران مشاغل توسط اعتیاد به مواد مخدره و فشار خارجی هدایت می شوند. از بنیانگذاران راه اندازی که به دنبال بودجه برای استراتژیست های شرکت هستند که برنامه های نوآوری را در دست می گیرند ، غریزه این است که ابزارهای هوش مصنوعی برش را در اسرع وقت ادغام کنند. مسابقه به سمت ادغام مشرف به نقص های مهم است که در زیر سطح سیستم های AI تولیدی قرار دارد.
مرتبط: 3 اشتباهات گران قیمت شرکت هنگام استفاده از Gen AI انجام می دهند
1. مدل های بزرگ زبان و AIS تولید کننده دارای نقص الگوریتمی عمیق هستند
به زبان ساده ، آنها هیچ درک واقعی از آنچه انجام می دهند ندارند ، و در حالی که ممکن است سعی کنید آنها را در مسیر نگه دارید ، آنها اغلب موضوع را از دست می دهند.
این سیستم ها فکر نمی کنند. آنها پیش بینی می کنند هر جمله ای که توسط یک LLM تولید می شود از طریق برآورد احتمالی توکن بر اساس الگوهای آماری در داده هایی که در آنها آموزش داده شده است ایجاد می شود. آنها حقیقت را از باطل ، منطق از مغالطه یا زمینه از سر و صدا نمی دانند. پاسخ های آنها ممکن است معتبر به نظر برسد اما کاملاً اشتباه باشد – به ویژه هنگام کار در خارج از داده های آموزش آشنا.
ترتیب عدم پاسخگویی
توسعه افزایشی نرم افزار یک رویکرد کاملاً مستند است که در آن توسعه دهندگان می توانند به نیازهای خود بازگردند و کنترل کامل بر وضعیت فعلی داشته باشند.
این به آنها اجازه می دهد تا علل اصلی اشکالات منطقی را شناسایی کرده و ضمن حفظ قوام در سراسر سیستم ، اقدامات اصلاحی انجام دهند. LLM ها خود را به صورت تدریجی توسعه می دهند ، اما هیچ سرنخی در مورد چه چیزی باعث افزایش ، آخرین وضعیت آنها یا وضعیت فعلی آنها وجود ندارد.
مهندسی نرم افزار مدرن بر روی شفافیت و قابلیت ردیابی ساخته شده است. هر عملکرد ، ماژول و وابستگی قابل مشاهده و پاسخگو است. هنگامی که چیزی از کار افتاد ، سیاههها ، آزمایشات و مستندات توسعه دهنده را به وضوح راهنمایی می کنند. این در مورد هوش مصنوعی تولیدی صادق نیست.
وزن مدل LLM از طریق فرآیندهای مات که شبیه بهینه سازی جعبه سیاه است ، تنظیم می شوند. هیچ کس – حتی توسعه دهندگان پشت سر آنها – نمی تواند مشخص کند که چه چیزی در مورد آموزش خاص باعث ایجاد یک رفتار جدید شده است. این باعث می شود اشکال زدایی غیرممکن باشد. همچنین این بدان معناست که این مدل ها ممکن است پس از چرخه های بازآموزی ، غیرقابل پیش بینی یا تغییر در عملکرد را کاهش دهند ، بدون اینکه دنباله حسابرسی در دسترس باشد.
برای یک تجارت بسته به دقت ، پیش بینی و انطباق ، این عدم پاسخگویی باید پرچم های قرمز را بالا ببرد. شما نمی توانید منطق داخلی LLM را کنترل کنید. شما فقط می توانید آن را به تماشای مورف.
مرتبط: نگاهی دقیق تر به جوانب مثبت و منفی هوش مصنوعی در تجارت
3 حملات روز صفر
حملات روز صفر در نرم افزار و سیستم های سنتی قابل ردیابی است و توسعه دهندگان می توانند آسیب پذیری را برطرف کنند زیرا می دانند چه چیزی را ساخته اند و روش سوء عملکرد را که مورد سوء استفاده قرار گرفته است ، درک می کنند.
در LLMS ، هر روز یک روز صفر است و هیچ کس حتی نمی تواند از آن آگاه باشد ، زیرا هیچ سرنخی در مورد وضعیت سیستم وجود ندارد.
امنیت در محاسبات سنتی فرض می کند که تهدیدها را می توان تشخیص داد ، تشخیص داده و وصله داد. بردار حمله ممکن است جدید باشد ، اما چارچوب پاسخ وجود دارد. نه با هوش مصنوعی.
از آنجا که هیچ پایه کد قطعی در پشت بیشتر منطق آنها وجود ندارد ، همچنین راهی برای مشخص کردن علت اصلی بهره برداری وجود ندارد. شما فقط می دانید وقتی در تولید قابل مشاهده است ، مشکلی وجود دارد. و تا آن زمان ، ممکن است خسارت شهرت یا نظارتی از قبل انجام شود.
با توجه به این موضوعات مهم ، کارآفرینان باید اقدامات احتیاطی زیر را انجام دهند ، که من در اینجا ذکر خواهم کرد:
1. از AIS مولد در حالت ماسهبازی استفاده کنید:
اولین و مهمترین مرحله این است که کارآفرینان باید از AIS مولد در حالت ماسهبازی استفاده کنند و هرگز آنها را در فرآیندهای تجاری خود ادغام نکنند.
ادغام به این معنی است که هرگز با استفاده از API آنها ، LLM ها را با سیستم های داخلی خود در ارتباط نیست.
اصطلاح “ادغام” دلالت بر اعتماد دارد. شما اعتماد دارید که مؤلفه ای که ادغام می کنید به طور مداوم انجام می دهد ، منطق کسب و کار خود را حفظ می کند و سیستم را فاسد نمی کند. این سطح اعتماد برای ابزارهای تولید کننده AI نامناسب است. استفاده از API برای سیم LLM ها به طور مستقیم در پایگاه داده ها ، عملیات یا کانال های ارتباطی نه تنها خطرناک نیست – بلکه بی پروا است. این دهانه برای نشت داده ها ، خطاهای عملکردی و تصمیمات خودکار بر اساس زمینه های تفسیر نادرست ایجاد می کند.
در عوض ، LLM ها را به عنوان موتورهای خارجی و جدا شده رفتار کنید. از آنها در محیط های ماسهبازی استفاده کنید که در آن می توان خروجی های آنها را قبل از اینکه هر انسانی یا سیستم روی آنها عمل کند ارزیابی شود.
2. از نظارت انسانی استفاده کنید:
به عنوان یک ابزار Sandbox ، یک سرپرست انسانی را به فوریت دستگاه اختصاص دهید ، خروجی را بررسی کرده و آن را به عملیات داخلی تحویل دهید. شما باید از تعامل دستگاه به ماشین بین LLMS و سیستم های داخلی خود جلوگیری کنید.
اتوماسیون کارآمد به نظر می رسد – تا زمانی که نباشد. هنگامی که LLM ها خروجی هایی را تولید می کنند که مستقیماً به دستگاه ها یا فرآیندهای دیگر می روند ، خطوط لوله کور ایجاد می کنید. کسی نیست که بگوید ، “این درست به نظر نمی رسد”. بدون نظارت انسانی ، حتی یک توهم واحد نیز می تواند به ضرر مالی ، مسائل حقوقی یا اطلاعات غلط بپردازد.
مدل انسان در حلقه یک تنگنا نیست-این یک حفاظت است.
مرتبط: مدلهای بزرگ زبان با هوش مصنوعی: امکانات بی حد و حصر ، اما با احتیاط ادامه دهید
3. هرگز اطلاعات تجاری خود را به AIS تولیدی ندهید ، و فرض نکنید که آنها می توانند مشکلات تجاری شما را حل کنند:
با آنها به عنوان ماشین های گنگ و بالقوه خطرناک رفتار کنید. از متخصصان انسانی به عنوان مهندسین مورد نیاز برای تعریف معماری تجارت و راه حل استفاده کنید. سپس ، از یک مهندس سریع استفاده کنید تا از دستگاههای هوش مصنوعی سؤالات خاصی در مورد اجرای – عملکرد با عملکرد – بدون آشکار کردن هدف کلی بپرسید.
این ابزارها مشاوران استراتژیک نیستند. آنها دامنه تجاری ، اهداف شما یا تفاوت های ظریف فضای مشکل را درک نمی کنند. آنچه آنها تولید می کنند ، الگوی زبانی است ، نه راه حل هایی که در هدف قرار دارند.
منطق تجارت باید بر اساس هدف ، زمینه و قضاوت توسط انسان تعریف شود. از هوش مصنوعی فقط به عنوان ابزاری برای پشتیبانی از اجرای استفاده کنید ، نه برای طراحی استراتژی یا تصمیم گیری. با هوش مصنوعی مانند یک ماشین حساب اسکریپت – در قسمت های مفید ، اما هرگز مسئول نیست.
در پایان ، هوش مصنوعی تولیدی هنوز برای ادغام عمیق در زیرساخت های تجاری آماده نیست. مدل های آن نابالغ ، رفتار آنها مات و خطرات آنها ضعیف است. کارآفرینان باید اعتیاد به مواد مخدره را رد کرده و یک وضعیت دفاعی اتخاذ کنند. هزینه سوء استفاده فقط ناکارآمدی نیست – این برگشت ناپذیر است.
هوش مصنوعی ، اگرچه برای چندین دهه به عنوان یک رشته در علوم کامپیوتر تأسیس شد ، اما در سال 2022 با ظهور هوش مصنوعی تولید شد. علی رغم بلوغ خود هوش مصنوعی به عنوان یک رشته علمی ، مدل های بزرگ زبان بسیار نابالغ هستند.
کارآفرینان ، به ویژه آنهایی که پیشینه فنی ندارند ، مشتاق استفاده از LLMS و AIS مولد به عنوان فعال کننده تلاش های تجاری خود هستند. در حالی که منطقی است که از پیشرفت های فناوری برای بهبود عملکرد فرآیندهای تجاری استفاده کنید ، در مورد هوش مصنوعی ، باید با احتیاط انجام شود.
امروزه بسیاری از رهبران مشاغل توسط اعتیاد به مواد مخدره و فشار خارجی هدایت می شوند. از بنیانگذاران راه اندازی که به دنبال بودجه برای استراتژیست های شرکت هستند که برنامه های نوآوری را در دست می گیرند ، غریزه این است که ابزارهای هوش مصنوعی برش را در اسرع وقت ادغام کنند. مسابقه به سمت ادغام مشرف به نقص های مهم است که در زیر سطح سیستم های AI تولیدی قرار دارد.
بقیه این مقاله قفل شده است.
به کارآفرین بپیوندیدبا امروز برای دسترسی
https://www.entrepreneur.com/science-technology/the-hidden-dangers-of-using-generative-ai-in-your-business/492938