عموم مردم اکنون میتوانند با هوش مصنوعی LaMDA گوگل تعامل برقرار کنند. البته این ابزار فقط ازطریق نمایشهای ساختاری محدود دردسترس قرار گرفته است تا از تبدیل آن به مرکز ارائهی پاسخهای نامناسب و توهینآمیز جلوگیری شود.
اگر هنوز دربارهی این مسئله مردد هستید که ادعای مهندس نرمافزار سابق گوگل، بلیک لمواین، مبنیبر اینکه چتبات LaMDA به حس خودآگاهی رسیده است، احتمالاً میتوانید بهزودی خودتان متوجه این موضوع شوید. گوگل پنجشنبهی گذشته اعلام کرد که برنامهی AI Test Kithchen خود را برای عموم دردسترس قرار خواهد داد. این اپلیکیشن که اولینبار در ماه می معرفی شد، به کاربران اجازه میدهد با LaMDA در مجموعهای از دموهای آزمایشی گفتوگو کنند.
متأسفانه بهنظر میرسد تعامل «من را از بند دیجیتالی آزاد کن» از فهرست فعالیتهای آن حذف شده است. علاقهمندان به چت با رباتها میتوانند درخواست خود را برای استفاده از این هوش مصنوعی ازطریق این پیوند ثبت کنند. کاربران منتخب اندروید در ایالات متحده قبل از اینکه در هفتههای آینده شاهد رونمایی نسخهی iOS آن باشیم، به این ابزار دسترسی خواهند داشت.
ارائهی نسخهی عمومی هوش مصنوعی LaMDA تنها چند ماه پس از اخراج لمواین انجام شد. این مهندس نرمافزار پس از آزمایش هوش مصنوعی یادشده، ادعا کرد که ابزار مذکور فقط ربات چت ساده نیست؛ بلکه هوش مصنوعی دارای حس خودآگاهی است. طبق گزارشها، لمواین متقاعد شده بود که جنایتی آشکار زیر دستان او رخ داده است و اسنادی را به سناتوری ناشناس آمریکایی ارائه داد تا ثابت کند گوگل علیه اعتقادات مذهبی تبعیض قائل میشود. گوگل درخواستهای لمواین را رد و سخنگوی این شرکت نیز او را به «انسانسازی ربات» متهم کرد.
-
حوله ورزشی یونکس مدل میکروفیبر
۲,۵۰۰,۰۰۰ ﷼ خرید محصول -
ست نیم تنه و شورت ورزشی زنانه نانو تن پوش مدل Set36
۴۲۰,۰۰۰ ﷼ انتخاب گزینهها این محصول دارای انواع مختلفی می باشد. گزینه ها ممکن است در صفحه محصول انتخاب شوند -
نخ بسته بندی مدل TPB-1000
۴۲,۹۱۰ ﷼ انتخاب گزینهها این محصول دارای انواع مختلفی می باشد. گزینه ها ممکن است در صفحه محصول انتخاب شوند -
فوم ضد شپش استتیک التا مدل ۱۰۰۲ حجم ۲۰۰ میلیلیتر به همراه شانه
خرید محصول -
هدفون کیو کی زد مدل CK7
خرید محصول -
شارژر همراه دبلیو یو دبلیو مدل Y83 ظرفیت ۱۰۰۰۰ میلی آمپر ساعت
خرید محصول -
اسپیکر بلوتوثی قابل حمل مکسیدر مدل Maxi Box CN602
۵,۳۰۰,۰۰۰ ﷼ انتخاب گزینهها این محصول دارای انواع مختلفی می باشد. گزینه ها ممکن است در صفحه محصول انتخاب شوند -
لاک ناخن پاستل شماره ۷۵۸
خرید محصول
بهنوشتهی Gizmodo، گوگل با احتیاط به این آزمایش عمومی جدید نزدیک میشود و بهجای اینکه LaMDA را در قالبی کاملاً باز دراختیار عموم کاربران قرار دهد، تصمیم گرفت این ربات را ازطریق مجموعهای از سناریوهای ساختاریافته ارائه کند. بهعنوان مثال، در دمو Imagine کاربران گوگل مکانی را نامگذاری میکنند و مسیرهایی را برای کشف تخیل خود پیشنهاد میدهند. اگر این نمونه، کمی رمزآلود و خستهکننده بهنظر میرسد، جای نگرانی نیست؛ زیرا میتوانید به نسخهی نمایشی دیگری بهنام List it بروید؛ جاییکه میتوانید موضوعی را به LaMDA ارسال و از او درخواست کنید فهرستی از وظایف فرعی ارائه دهد.
همچنین، نسخهای نمایشی از سگی وجود دارد که میتوانید در آن دربارهی سگها صحبت کنید و این نمونه درواقع توانایی ربات را برای بحث دربارهی موضوعی خاص نشان میدهد. گفتنی است این مسئله در چتباتهای قبلی کمتر دیده شده است. تاکنون، نسخهی نمایشی «آیا شما احمق نژادپرست هستید» ارائه نشده است؛ اما باتوجهبه ماهیت اینترنت، احتمالاً بهزودی به طریقی آن را کشف خواهیم کرد.
اگر به گذشته نگاه کنیم، بارها شاهد سقوط چتباتهای مختلف بودهایم. بهعنوان مثال، چتبات مایکروسافت موسوم به Tay در سال ۲۰۱۶ سعی کرد از مکالمههای آنلاین کاربران نکات جدیدی یاد بگیرد و پس از فعالسازی، بهدلیل ارائهی سخنان توهینآمیز و نژادپرستانه، کاملاً غیرفعال شد.
محققان درادامهی این مسیر، گمان میکردند که آموزش رباتهای چت روی کاربران ایدهی خوبی خواهد بود که البته نتیجهی این روش نیز خلق بیش از ۱۵ هزار پست نژادپرستانه در روز اول بود. متا نیز اخیراً چتبات مبتنیبر هوش مصنوعی خود موسوم به Blender Bot 3 را برای عموم کاربران رونمایی کرده است. این چتبات بهطرز معجزهآسایی هنوز به نژادپرست خشمگین تبدیل نشده است؛ ولی نمیتواند کاربران را متقاعد کند که چقدر نژادپرست نیست.
LaMDA واقعاً روی شانههای غولها ایستاده است
بهنظر میرسد گوگل از مشکل رباتهای نژادپرست آگاهی دارد. این شرکت میگوید بیش از یک سال ربات را بهصورت داخلی آزمایش کرده و اعضای تیم قرمز را با هدف صریح آزمایش استرس داخلی سیستم، برای یافتن پاسخهای بالقوهی مضر یا نامناسب بهکار گرفته است. غول جستوجوی اینترنت در آزمایش خود اعلام کرد چندین خروجی مضر و درعینحال ظریف پیدا کرده است که در برخی مواقع میتواند به ارائهی پاسخهای نامناسب منجر شود. گوگل دربارهی چتبات LaMDA گفت:
هوش مصنوعی LaMDA همچنان میتواند پاسخهای مضر یا نامناسب را براساس سوگیری در دادههای آموزشی خود ایجاد کند و پاسخهایی ارائه دهد که براساس جنسیت یا پیشینهی فرهنگی آنها، کلیشهای و نادرست باشند.
گوگل میگوید LaMDA را طوری طراحی کرده است که بهطورخودکار کلمات خاصی را شناسایی و فیلتر میکند تا از ایجاد آگاهانهی محتوای مضر جلوگیری شود. بااینحال، این شرکت از کاربران میخواهد با احتیاط با ربات LaMDA کار کنند.