چرا نباید به چت بات ها اعتماد کنید؟

به گزارش لحظه عکاسی، هفته گذشته مایکروسافت و گوگل اعلام کردند که برنامه های مبتنی بر هوش مصنوعی مشابه چت جی پی تی (Chat GPT) را در موتور های جستجوی خود قرار می دهند برنامه ای برای تبدیل نحوه یافتن اطلاعات آنلاین به مکالمه با یک چت بات دانای کل. با این وجود، یک مشکل در اینجا وجود دارد: این مدل های زبانی اسطوره ای بدنام هستند.

چرا نباید به چت بات ها اعتماد کنید؟

به گزارش لحظه عکاسی به نقل از آتلانتیک، در یک ویدئوی تبلیغاتی چت بات بارد ساخت گوگل در خصوص نجوم اشتباه فاحشی را مرتکب شد. این چت بات در پاسخگویی بازه زمانی بیش از یک دهه را در خصوص پاسخگویی درباره زمان ثبت اولین عکس از سیاره ای خارج از منظومه خورشیدی اشتباه کرد. این اشتباه در پاسخگویی باعث شد ارزش سهام شرکت مادر گوگل تا 9 درصد کاهش یابد.

نمایش زنده بینگ که از نسخه پیشرفته تر چت جی پی تی برخوردار است نیز با اشتباهات شرم آوری همراه بود. حتی در چند ماه گذشته بسیاری معتقد بودند که هوش مصنوعی در نهایت با نام خود عمل خواهد نمود. با این وجود، اکنون محدودیت های اساسی این فناوری نشان می دهد که بیشتر پیش بینی ها درباره آن در بدترین خالت علمی - تخیلی و در برترین حالت یک بهبود تدریجی در فناوری همراه با گردابی از اشکلات رفع نشده است.

مشکل از زمانی شروع می گردد که شرکت ها و کاربران به برنامه هایی مانند چت جی پی تی برای تجزیه و تحلیل امور مالی، برنامه ریزی سفر و وعده های غذایی و یا ارائه اطلاعات اولیه اعتماد می نمایند. این مشکل بدان خاطر روی می دهد که ما چت بات ها را نه صرفا به عنوان ربات های جستجوگر بلکه به عنوان چیزی شبیه به مغز قلمداد می کنیم.

مایکروسافت و گوگل به جای وادار کردن کاربران به خواندن سایر صفحات اینترنتی آینده ای را پیشنهاد نموده اند که در آن موتور های جستجو از هوش مصنوعی برای ترکیب کردن اطلاعات و تبدیل و بسته بندی آن به نثر اولیه مانند اوراکل های سیلکونی استفاده می نمایند. واقعیت آن است که برنامه هایی که از آن تحت عنوان مدل های زبان بزرگ یاد می گردد و در حال حاضر این تغییر را ایجاد می نمایند در فراوری جملات ساده عملکرد خوبی دارند، اما در هر مورد دیگری عملکردی بسیار وخشتناک را از خود نشان داده اند.

این مدل ها با شناسایی و بازیابی الگو ها در زبان مانند یک تصحیح اتوماتیک فوق العاده قدرتمند کار می نمایند. نرم افزاری مانند چت جی پی تی ابتدا حجم عظیمی از دروس، کتب، صفحات ویکیپدیا، روزنامه ها و پست های رسانه های اجتماعی را مورد تجزیه و تحلیل قرار می دهد و سپس از آن داده ها برای پیش بینی واژگان و عبارات استفاده می کند.

این برنامه ها زبان موجود را مدل سازی می نمایند بدان معنا که نمی توانند ایده های تازه ارائه نمایند و اتکای این برنامه ها به نظم آماری بدان معناست که تمایل دارند نسخه های مقرون به صرفه تر و تخریب شده اطلاعات اصلی را فراوری نمایند چیزی شبیه نسخه های معیوب زیراکس.

حتی اگر چت جی پی تی و برنامه های مشابه آن یاد گرفته بودند که واژگان را به خوبی پیش بینی نمایند باز هم فاقد مهارت اساسی دیگر بودند. برای مثال، این برنامه ها دنیای فیزیکی یا نحوه استفاده از منطق را نمی دانند، در ریاضیات وحشتناک هستند و در بیشتر موارد مربوط به جستجو در اینترنت خود قادر به آنالیز نیستند. همین دیروز Chat GPT به ما گفت که شش حرف در نام اش وجود دارد!

این برنامه های زبانی چیز های نو را می نویسند که به آن توهم می گویند، اما می توان از آن تحت عنوان دروغ نیز یاد کرد. درست مانند تصحیح اتوماتیک در درست کردن حروف این مدل ها کل جملات و پاراگراف ها را به هم می ریزند. گزارش شده که بینگ نو در پاسخ به پرسش درباره سال ها گفته که سال 2022 پس از سال 2023 میلادی از راه می رسد و سپس اعلام نموده که اکنون در سال 2022 به سر می بریم! با توجه به اشکالات موجود سخنگوی مایکروسافت گفته است: با توجه به آن که این یک پیش نمایش اولیه از بینگ نو است گاهی اوقات می تواند پاسخ های ناردست یا غیر منتظره ای ارائه دهد. ما در حال تنظیم پاسخ های آن برای ایجاد انسجام و مرتبط ساختن پاسخ به پرسش هستیم.

یکی از سخنگویان گوگل در پاسخ به پرسش مطرح شده از سوی آتلانتیک گفته است: ما در حال بهبود جنبه های مهم بارد هستیم تا اطمینان حاصل کنیم که برای کاربران مان آماده است.

به عبارت دیگر، سازندگان بینگ و بارد نو علیرغم تبلیغاتی که انجام داده اند خود می دانند که محصولات شان برای استفاده به وسیله کاربران دنیای آماده نیستند. اگر ذکر این اشتباهات در پاسخگویی و اشکالات موجود در فناوری مبتنی بر هوش مصنوعی برای شما متقاعد نماینده نیست این موضوع را در نظر بگیرید که آموزش یک هوش مصنوعی به میزان زیادی داده و زمان احتیاج دارد.

برای مثال، چت جی پی تی از سال 2021 میلادی به این سو در خصوص هیچ چیزی آموزش ندیده است و در نتیجه درباره مسائل مرتبط با پس از سال 2021 میلادی هیچ اطلاعاتی ندارد. هم چنین، به روز رسانی هر مدلی با هر دقیقه اخبار اگر ناممکن نباشد اقدامی غیر عملی است. ظاهرا بینگ نو در خصوص اخبار فوری یا رویداد های ورزشی آینده درخواست کاربر را به وسیله موتور جستجوی بینگ قدیمی اجرا می کند و از آن نتایج همراه با هوش مصنوعی برای نوشتن پاسخ استفاده می کند که چیزی شبیه یک عروسک روسی یا شاید یک مجسمه با روکش طلایی به نظر می رسد: در نتیجه، در بخش زیرین لایه بیرونی و درخشان هوش مصنوعی همان بینگ لکه دار و قدیمی وجود دارد که همگان آن را می شناسیم و هرگز از آن استفاده نمی کنیم.

نکته ای که بر شک و تردید ها می افزاید آن است که مایکروسافت و گوگل چیز زیادی در خصوص نحوه عملکرد این ابزار های جستجوی مبتنی بر هوش مصنوعی نگفته اند. شاید آنان در حال ترکیب نرم افزار های دیگری برای بهبود قابلیت اطمینان بخشی چت بات ها هستند تا نگرانی ها را رفع سازند.

در واقع، دو شرکت بزرگ فناوری در دنیا اساسا از کاربران می خواهند که به کار آنان ایمان باشند و اعتماد نمایند گویی که خدایان عصر باستان هستند و چت بات های شان مانند آپولو به وسیله یک کاهن در معبد دلفی صحبت می نمایند. این بات های جستجوی مبتنی بر هوش مصنوعی به زودی برای استفاده همگان در دسترس خواهند بود.

با این وجود، ما نباید برای انجام فعالیت های زندگی مان به این فناوری اتوماتیک در ظاهر شکوهمند اعتماد کنیم. کمتر از یک دهه پیش دنیا متوجه شد که فیس بوک کم تر یک شبکه اجتماعی سرگرم نماینده و بیش تر یک ماشین تخریب دموکراسی است. در نتیجه، درباره اعتماد به فناوری های غول های این عرصه عجله نداشته باشیم.

منبع: فرارو

به "چرا نباید به چت بات ها اعتماد کنید؟" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "چرا نباید به چت بات ها اعتماد کنید؟"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید