جای تعجب نیست که همه در مورد هوش مصنوعی و عجله اخیر برای استقرار مدل های زبان بزرگ صحبت می کردند. پیش از کنفرانس، سازمان ملل متحد بیانیهای صادر کرد و شرکتکنندگان را تشویق کرد تا بر نظارت و شفافیت هوش مصنوعی تمرکز کنند.
با این حال من تعجب کردم چقدر گفتگوها در مورد خطرات هوش مصنوعی مولد در رایت کان با همه هشدارهای صداهای بزرگ سیلیکون ولی متفاوت بود. که در اخبار خوانده ام
در طول چند هفته گذشته، مشاهیر فناوری مانند سام آلتمن، مدیر عامل OpenAI، جف هینتون، کارمند سابق گوگل، یوشوا بنجیو، محقق برتر هوش مصنوعی، ایلان ماسک و بسیاری دیگر خواستار مقررات و اقدام فوری برای رسیدگی به «خطرات وجودی» شدهاند. انقراض – که هوش مصنوعی برای بشریت ایجاد می کند.
مسلماً استقرار سریع مدلهای زبانی بزرگ بدون ارزیابی ریسک، افشای دادهها و فرآیندهای آموزشی، یا ظاهراً توجه زیادی به نحوه استفاده نادرست از فناوری، نگرانکننده است. اما سخنرانان در چندین جلسه در رایت کان تکرار کردند که این هجوم طلای هوش مصنوعی محصول سودجویی شرکت است، نه لزوماً ناتوانی نظارتی یا اجتناب ناپذیری فناوری.
در همان جلسه اول، گیدئون لیچفیلد، سردبیر برتر Wired (و سردبیر سابق Tech Review) و Urvashi Aneja، بنیانگذار Digital Futures Lab، پا به پای کنت واکر گوگل رفتند.
ساتیا نادلا از مایکروسافت گفت که او می خواستم گوگل را به رقص درآورم. لیچفیلد گفت و گوگل رقصید. ما اکنون، همه ما، در حالی که دماغ خود را نگه می داریم به خلاء می پریم زیرا این دو شرکت در آنجا تلاش می کنند یکدیگر را شکست دهند. واکر، در پاسخ، بر مزایای اجتماعی که پیشرفتهای هوش مصنوعی میتواند در زمینههایی مانند کشف دارو به ارمغان بیاورد، تاکید کرد و تعهد گوگل به حقوق بشر را مجدداً اعلام کرد.
روز بعد، تیمنیت گبرو، محقق هوش مصنوعی، مستقیماً به بحث در مورد خطرات وجودی ناشی از هوش مصنوعی پرداخت: «انتساب آژانس به یک ابزار یک اشتباه است، و این یک تاکتیک انحرافی است. و اگر می بینید چه کسی اینطور صحبت می کند، به معنای واقعی کلمه همان افرادی هستند که میلیاردها دلار به این شرکت ها ریخته اند.»
او گفت: «همین چند ماه پیش، جف هینتون در مورد GPT-4 و اینکه چگونه پروانه جهان است صحبت می کرد. اوه، مانند یک کرم است که داده ها را می گیرد و سپس به یک پروانه زیبا پرواز می کندو اکنون ناگهان یک خطر وجودی است. منظورم این است که چرا مردم این افراد را جدی می گیرند؟»
کارشناسانی مانند فردریک کالتیونر، مدیر فناوری و حقوق بشر سازمان دیده بان حقوق بشر، ناامید شده از روایت های پیرامون هوش مصنوعی، پیشنهاد می کنند خود را در معرض خطرات قرار دهیم. قبلاً طاعون AI را می شناسید به جای حدس و گمان در مورد آنچه ممکن است رخ دهد.
و برخی مضرات واضح و مستند به دلیل استفاده از هوش مصنوعی وجود دارد. آنها عبارتند از:
- افزایش و تقویت اطلاعات غلط نشان داده شده است که الگوریتمهای توصیه در پلتفرمهای رسانههای اجتماعی مانند اینستاگرام، توییتر و یوتیوب بدون در نظر گرفتن دقت، محتوای شدید و از نظر احساسی متقاعدکننده را در اولویت قرار میدهند. LLM ها با تولید اطلاعات نادرست قانع کننده به نام “توهم” به این مشکل کمک می کنند. (اطلاعات بیشتر در مورد آن در زیر)
- داده ها و خروجی های آموزشی مغرضانه مدلهای هوش مصنوعی معمولاً بر روی مجموعه دادههای بایاس آموزش داده میشوند که میتواند منجر به خروجیهای سوگیری شود. این امر میتواند نابرابریهای اجتماعی موجود را تقویت کند، مانند الگوریتمهایی که هنگام تعیین امتیاز به افراد برای ارتکاب کلاهبرداری رفاهی تبعیض قائل میشوند، یا سیستمهای تشخیص چهره که در زنان با پوست تیرهتر از مردان سفیدپوست دقت کمتری دارند. مواردی از انتشار محتوای نژادپرستانه توسط ChatGPT نیز مستند شده است.
- تخریب حریم خصوصی کاربران آموزش مدلهای هوش مصنوعی به حجم عظیمی از دادهها نیاز دارد که اغلب از وب حذف میشوند یا خریداری میشوند و سؤالاتی در مورد رضایت و حفظ حریم خصوصی ایجاد میکنند. شرکتهایی که مدلهای زبان بزرگی مانند ChatGPT و Bard را توسعه دادهاند، هنوز اطلاعات زیادی در مورد مجموعه دادههای مورد استفاده برای آموزش آنها منتشر نکردهاند، اگرچه مطمئناً حاوی دادههای زیادی از اینترنت هستند.
کالتیونر می گوید که او به ویژه نگران است که چت ربات های مولد هوش مصنوعی در زمینه های مخاطره آمیز مانند درمان سلامت روان مستقر شوند: “من نگران موارد استفاده کاملاً بی پروا از هوش مصنوعی مولد برای چیزهایی هستم که این فناوری به سادگی برای هدف طراحی نشده یا مناسب نیست.”
گبرو نگرانیهای خود را در مورد اثرات زیستمحیطی ناشی از مقادیر زیاد توان محاسباتی مورد نیاز برای اجرای مدلهای پیچیده زبانی تکرار کرد. (او می گوید که به دلیل مطرح کردن این نگرانی ها و سایر نگرانی ها در تحقیقات داخلی از گوگل اخراج شده است.) او خاطرنشان کرد که مدیران ChatGPT که با دستمزدهای پایین کار می کنند، در تلاش های خود برای کاهش سمیت خروجی های مدل نیز دچار PTSD شده اند.
کالتیونر در مورد نگرانی در مورد آینده بشریت می پرسد: «انقراض کیست؟ انقراض کل نسل بشر؟ ما در حال حاضر شاهد آسیب افرادی هستیم که به لحاظ تاریخی به حاشیه رانده شده اند. به همین دلیل آن را کمی بدبینانه میدانم.»
دیگه چی دارم میخونم
- سازمان های دولتی ایالات متحده در حال استقرار GPT-4 هستندبر اساس اعلامیه مایکروسافت که توسط بلومبرگ گزارش شده است. OpenAI ممکن است خواهان مقرراتی برای چت بات خود باشد، اما در عین حال، می خواهد آن را به دولت ایالات متحده نیز بفروشد.
- مشکل توهم ChatGPT ممکن است قابل رفع نباشد. به گفته محققان MIT، مدلهای زبانی بزرگ زمانی که با یکدیگر بحث میکنند دقیقتر میشوند، اما دقت واقعی در ظرفیت آنها گنجانده نشده است، همانطور که در این داستان واقعا مفید از واشنگتن پست توضیح داده شده است. اگر توهمات غیرقابل رفع باشند، ممکن است فقط در شرایط محدود بتوانیم به طور قابل اعتماد از ابزارهایی مانند ChatGPT استفاده کنیم.
- طبق تحقیقات وال استریت ژورنال، دانشگاه استنفورد و دانشگاه ماساچوست، آمهرست، اینستاگرام میزبان شبکههای بزرگی از حسابهای کاربری است که محتوای سوءاستفاده جنسی از کودکان را منتشر میکنند. این پلتفرم با تشکیل یک کارگروه برای بررسی مشکل پاسخ داد. بسیار تکان دهنده است که چنین مشکل مهمی توسط ناظران محتوای پلتفرم و الگوریتمهای تعدیل خودکار مورد توجه قرار نگیرد.
چیزی که این هفته یاد گرفتم
گزارش جدیدی توسط گروه حقوق بشر PSCORE مستقر در کره جنوبی به جزئیات روند درخواست چند روزه مورد نیاز برای دسترسی به اینترنت در کره شمالی می پردازد. فقط چند ده خانواده متصل به کیم جونگ اون دسترسی نامحدود به اینترنت دارند و تنها «چند هزار» کارمند دولتی، محقق و دانشآموز میتوانند به نسخهای دسترسی داشته باشند که تحت نظارت شدید است. همانطور که مت برگس در وایرد گزارش می دهد، روسیه و چین احتمالاً زیرساخت وب بسیار کنترل شده آن را به کره شمالی عرضه می کنند.