آزمایشگاههای تحقیقاتی هوش مصنوعی متا یک ربات چت جدیدی و پیشرفته ایجاد کردهاند که به اعضای عمومی این اجازه را میدهد تا با سیستم صحبت کنند تا بازخوردی را در مورد قابلیتهای آن جمعآوری کنند.
متا نام این ربات را BlenderBot 3 گذاشته است و شما میتوانید از آن به صورتی کاملا آزادانه استفاده کنید. البته باید به این موضوع هم اشاره کنیم که ظاهرا تنها کاربران ساکن ایالات متحده آمریکا این شرکت به آن دسترسی دارند و در آیندهای نچندان دور برای همه افراد به دسترسی خواهند داشت.
براساس گفتههای متا، BlenderBot 3 میتواند در گفتگوهای عمومی شرکت کند، اما همچنین به سوالاتی که ممکن است از یک دستیار دیجیتالی بپرسید هم پاسخ میدهد. این ربات در واقع یک نمونه اولیه است و براساس کارهای قبلی متا با زبانهای زبان بزرگ یا همان LLMS ساخته شده است. برای آن دسته از کاربران که نمیدانند LLMS چیست، باید بگوییم که یک نرمافزار تولید متن قدرتمند اما با باگهای فراوان است که GPT-3 OpenAI شناختهشدهترین نمونه ان به حساب میآید.
درست مانند همه LLMهایی که در گذشته دیدهایم، BlenderBot در ابتدا روی مجموعه دادههای گستنردهای از متون آموزشهای لازم را دریافت میکند که برای الگوهای آماری به منظور تولید زبان استخراج میشود. در کنار تمام این موارد، ثابت شده است که چنین سیستمهایی بسیار انعطافپذیر هستند و برای طیف وسیعی از کاربردها مانند تولید کد برای برنامهنویسان، کمک به نویسندگان در نوشتن کتابهای پرفروش بعدی خود و مواردی دیگر استفاده شدهاند.
این مدلها همچنین دارای نقصهای جدی هستند که یکی از مهمترین آنها باز گرداندن سوگیریها را در دادههای آموزشی و ابداع کردن پاسخهایی برای سوالات کاربران است. در واقع اگر قرار است که به عنوان دستیار دیجیتالی نقش خود را ایفا کند، مشکلات بسیار زیادی را دارد.
دومین مشکل گفته شده چیزی است که متا قصد دارد تا به صورتی خاص با استفاده از BlenderBot 3 آزمایش کند. یکی از ویژگیهای بزرگ ربات مخصوص چت این شرکت، آن است که میتواند در اینترنت به منظور صحبت در مورد موضوعاتی خاص جستجوهایی را انجام دهد.
قابلیتهایی که این ربات در اختیار کاربران خود قرار میدهد به جایی فراتر از تمام موارد گفته شده میرود و آنها میتوانند با کلیک روی پاسخ داده شده متوجه شوند که BlenderBot 3 اطلاعات خود برای ارائه آن جواب را از کجا دریافت کرده است. به عبارت دیگر، BlenderBot 3 میتواند منابع خود را به شما نمایش دهد.
با انتشار این ربات چت برای عموم، متا میخواهد در مورد مشکلات مختلف پیش روی مدلهای زبان بزرگ خود بازخوردهای مورد نیاز را جمعاوری کند. کاربرانی که با BlenderBot 3 چت میکنند، میتوانند هر پاسخ مشکوکی از سیستم را علامتگذاری کنند. همچنین در کنار امکان علامتگذاری کردن، متا میگوید که سخت کار کرده است تا استفاده رباتها از زبان مبتذل، توهین و نظراتی ضد فرهنگ را به حداقل برساند.
کاربران باید جمعآوری دادههایشان را انتخاب کنند و در این صورت، مکالمات و بازخوردهای مربوط به آنها ذخیره میشود و بعدا توسط متا منتشر میشود تا توسط جامعه تحقیقاتی عمومی هوش مصنوعی استفاده شود.
کورت شوستر، مهندس محقق در شرکت متا که به ساخت BlenderBot 3 کمک کرده است، در مصاحبه خود با رسانه The Verge گفت:
ما متعهد هستیم که تمام دادههایی که در نسخه نمایشی جمعآوری میکنیم را به صورت عمومی منتشر کنیم. ما امیدواریم که با استفاده از آنها بتوانیم خوش مصنوعی محاورهای را بهبود ببخشیم.
انتشار نمونه اولیه چت رباتهای هوش مصنوعی برای عموم، اقدامی خطرناک برای شرکتهای دنیای فناوری بوده است. در سال 2016 بود که مایکروسافت چت باتی به نام Tay را در توییتر منتشر کرد که از تعاملات خود با مردم چیزهایی را یاد میگرفت. تا حدودی نتیجه این کار قابل پیشبینی بود، زیرا کاربران با استفاده از روشهای مختلفی تلاش کردند تا Tay اظهارات نژادپرستانه، یهودیستیزانه و زنستیزانه را بازگو کند. مایکروسافت هم با مشاهده چنین چیزی در نهایت تصمیم گرفت تا بعد از 24 ساعت این ربات را از دسترس خارج کند.
متا در پاسخ به نگرانیهای کاربران میگوید که دنیای هوش مصنوعی پس از نقص عملکرد Tay بسیار پیشرفت کرده است و BlenderBot 3 انواع مختلفی از روشهای امنیتی را دارد که این شرکت را از تکرار اشتباهات متا باز میدارد.
مری ویلیامسون، مدیر مهندسی تحقیقات فیسبوک AI Research یا همان FAIR میگوید که این موضوع بسیار مهم است، زیرا در حالی که Tay برای یادگیری به صورت همزمان از تعاملات کابران طراحی شده بود، BlenderBot 3 مدلی کاملا ثابت است. این مورد به آن معنا است که میتواند آنچه را که کاربران در یک مکالمه میگویند را به خاطر بسپارد، اما از این دادهها فقط برای بهبود بیشتر سیستم استفاده میشود. BlenderBot 3 حتی این توانایی را دارد تا با استفاده از کوکیهای مرورگر، تمام مکالمات را به خاطر بسپارد تا مکالمه بهتری را با او داشته باشد.
ویلیامسون همچنین به رسانه The Verge گفت:
این فقط نظر شخصی من است، اما Tay نسبتا تاسفآور بود، زیرا شرکتها با توجه به تجربه آن، میترسیدند که چتباتهای عمومی را برای تحقیق قرار دهند.
او سپس ادامه داد که بیشتر چتباتهای مورد استفاده امروزی بسیار پیش پا افتاده و وظیفه محور هستند. به عنوان مثال، رباتهای خدمات مشتریان را در نظر بگیرید که اغلب فقط یک درخت گفتگوی از پیش برنامهریزی شده را به کاربران ارائه میدهند. جایزه اصلی چنین فناوری به سیستمی میرسد که بتواند مکالمهای را به همان اندازه آزاد و طبیعی انجام دهد و متا میگوید که تنها راه رسیدن به این هدف، آن است که اجازه دهد تا رباتها مکالمات آزاد و طبیعی داشته باشند.
مدیر مهندسی تحقیقات فیسبوک AI Research میگوید:
این عدم تحمل برای رباتهخا که چیزهای غیرمفیدی را به معنای واقعی کلمه میگویند، مایه تاسف است. آنچه که در تلاش هستیم انجام دهیم، آن است که این ربات را به صورتی مسئولانه منتشر کنیم و تحقیقات را به جلو ببریم.
علاوهبر قرار دادن BlenderBot 3 به صورتی عمومی در اینترنت، متا همچنین کدهای اساسی، مجموعه دادههای آموزشی و انواع مدلهای کوچکتر را منتشر خواهد کرد. محققان میتوانند از طریق فرمی که در این لینک قرار دارد، به بزرگترین مدل که دارای 175 میلیارد پارامتر است، دسترسی پیدا کنند.