robindigitalbanner

چت بات ها حساس نیستند. در اینجا نحوه کار آنها آمده است.

مایکروسافت نسخه جدیدی از موتور جستجوی بینگ خود را هفته گذشته منتشر کرد و بر خلاف موتورهای جستجوی معمولی، دارای یک ربات چت است که می تواند به سؤالات با نثر واضح و مختصر پاسخ دهد.

از آن زمان، مردم متوجه شده‌اند که برخی از آنچه چت ربات بینگ تولید می‌کند، نادرست، گمراه‌کننده و کاملاً عجیب است، که باعث ترس از هوشیاری یا آگاهی از دنیای اطراف آن می‌شود.

اینطور نیست. و برای درک دلیل آن، مهم است که بدانید چت بات ها واقعا چگونه کار می کنند.

خیر باز هم بگوییم: نه!

در ماه ژوئن، یکی از مهندسان گوگل، بلیک لمواین، ادعا کرد که فناوری چت بات مشابهی که در داخل گوگل آزمایش می شود، حساس است. این دروغ است. چت بات‌ها آگاه نیستند و باهوش نیستند – حداقل نه به روشی که انسان‌ها باهوش هستند.

به عقب برگردیم چت بات بینگ از نوعی هوش مصنوعی به نام شبکه عصبی نیرو می گیرد. این ممکن است مانند یک مغز کامپیوتری به نظر برسد، اما این اصطلاح گمراه کننده است.

شبکه عصبی فقط یک سیستم ریاضی است که با تجزیه و تحلیل حجم وسیعی از داده های دیجیتال، مهارت ها را یاد می گیرد. به عنوان مثال، همانطور که یک شبکه عصبی هزاران عکس گربه را بررسی می کند، می تواند تشخیص یک گربه را بیاموزد.

اکثر مردم هر روز از شبکه های عصبی استفاده می کنند. این فناوری است که افراد، حیوانات خانگی و سایر اشیاء را در تصاویر ارسال شده به سرویس‌های اینترنتی مانند Google Photos شناسایی می‌کند. این به سیری و الکسا، دستیاران صوتی مکالمه اپل و آمازون اجازه می‌دهد تا کلماتی که شما صحبت می‌کنید را تشخیص دهند. و این چیزی است که در سرویس هایی مانند Google Translate بین انگلیسی و اسپانیایی ترجمه می شود.

شبکه های عصبی در تقلید از روش استفاده انسان از زبان بسیار خوب هستند. و این می تواند ما را گمراه کند که فکر کنیم این فناوری قدرتمندتر از آن چیزی است که واقعاً هست.

حدود پنج سال پیش، محققان شرکت‌هایی مانند Google و OpenAI، یک استارت‌آپ در سانفرانسیسکو که اخیراً چت ربات محبوب ChatGPT را منتشر کرده است، شروع به ساخت شبکه‌های عصبی کردند که از حجم عظیمی از متن دیجیتال، از جمله کتاب‌ها، مقالات ویکی‌پدیا، گزارش‌های چت و همه چیز یاد می‌گیرد. انواع چیزهای دیگر در اینترنت ارسال شده است.

این شبکه های عصبی به عنوان مدل های زبان بزرگ شناخته می شوند. آن‌ها می‌توانند از این انبوه داده‌ها برای ساختن آنچه که شما می‌توانید نقشه ریاضی زبان انسان نامید، استفاده کنند. با استفاده از این نقشه، شبکه‌های عصبی می‌توانند وظایف مختلفی مانند نوشتن توییت‌های خود، نوشتن سخنرانی، تولید برنامه‌های کامپیوتری و بله، انجام مکالمه را انجام دهند.

این مدل های زبان بزرگ مفید بودنشان را ثابت کرده اند. مایکروسافت ابزاری به نام Copilot ارائه می‌کند که بر اساس یک مدل زبان بزرگ ساخته شده است و می‌تواند خط بعدی کد را به عنوان برنامه‌نویسان کامپیوتری که برنامه‌های نرم‌افزاری می‌سازند، پیشنهاد کند، به همان صورتی که ابزارهای تکمیل خودکار کلمه بعدی را هنگام تایپ متن یا ایمیل پیشنهاد می‌کنند.

سایر شرکت‌ها فناوری مشابهی را ارائه می‌کنند که می‌تواند مطالب بازاریابی، ایمیل‌ها و سایر متن‌ها را تولید کند. این نوع فناوری به عنوان هوش مصنوعی مولد نیز شناخته می شود

دقیقا. در ماه نوامبر، OpenAI ChatGPT را منتشر کرد، اولین باری که عموم مردم طعم آن را می‌بینند. مردم شگفت زده شدند – و به درستی.

این چت بات ها دقیقاً مانند یک انسان چت نمی کنند، اما اغلب به نظر می رسد. آنها همچنین می توانند مقالات ترم و شعر بنویسند و تقریباً در مورد هر موضوعی که در مسیرشان است، ریف کنند.

چون از اینترنت یاد می گیرند. به این فکر کنید که چقدر اطلاعات نادرست و سایر زباله ها در وب وجود دارد.

این سیستم ها همچنین آنچه در اینترنت وجود دارد را کلمه به کلمه تکرار نمی کنند. آنها با تکیه بر چیزهایی که آموخته اند، متن جدیدی را به تنهایی تولید می کنند، چیزی که محققان هوش مصنوعی آن را “توهم” می نامند.

به همین دلیل است که اگر یک سوال را دو بار بپرسید، ربات‌های گفتگو ممکن است پاسخ‌های متفاوتی به شما بدهند. آنها هر چیزی را می گویند، چه بر اساس واقعیت باشد و چه نباشد.

محققان هوش مصنوعی دوست دارند از اصطلاحاتی استفاده کنند که این سیستم ها را انسانی جلوه دهد. اما توهم فقط یک اصطلاح جذاب برای “آنها چیزها را می سازند” است.

این ترسناک و خطرناک به نظر می رسد، اما به این معنا نیست که این فناوری به نوعی زنده است یا از محیط اطراف خود آگاه است. این فقط با استفاده از الگوهایی که در اینترنت پیدا کرده است، متن تولید می کند. در بسیاری از موارد، الگوها را به شیوه‌های شگفت‌انگیز و نگران‌کننده‌ای با هم ترکیب و مطابقت می‌دهد. اما از آنچه انجام می دهد آگاه نیست. نمی تواند مانند انسان ها استدلال کند.

تلاش می کنند.

با ChatGPT، OpenAI سعی کرد رفتار فناوری را کنترل کند. همانطور که گروه کوچکی از افراد به طور خصوصی سیستم را آزمایش کردند، OpenAI از آنها خواست تا به پاسخ های آن امتیاز دهند. مفید بودند؟ آیا آنها راستگو بودند؟ سپس OpenAI از این رتبه‌بندی‌ها استفاده کرد تا سیستم را تقویت کند و با دقت بیشتری تعریف کند که چه کاری انجام می‌دهد و چه کاری انجام نمی‌دهد.

اما چنین تکنیک هایی کامل نیستند. امروزه دانشمندان نمی دانند چگونه سیستم هایی بسازند که کاملاً درست باشد. آنها می توانند نادرستی ها و موارد عجیب و غریب را محدود کنند، اما نمی توانند جلوی آنها را بگیرند. یکی از راه های مهار رفتارهای عجیب و غریب کوتاه نگه داشتن چت است.

اما چت بات ها همچنان چیزهایی را منتشر می کنند که درست نیستند. و همانطور که سایر شرکت ها شروع به استقرار این نوع ربات ها می کنند، همه در کنترل کارهایی که می توانند و نمی توانند انجام دهند خوب نخواهند بود.

نتیجه نهایی: هر چیزی که یک چت بات به شما می گوید را باور نکنید.

Felipe Holmes

گیک تلویزیون متخصص رسانه های اجتماعی ایجاد کننده. نویسنده پرشور. نینجا سفر افراطی. کل کارآفرین معتاد به اینترنت

تماس با ما