سایت نمایشگاه تخصصی ایران ایفتکس
در حال دانلود
‏ده لحظه‌ی برتر هوش مصنوعیِ گیج‌کننده در سال ۲۰۲۵
۱۰ دی ۱۴۰۴

‏### هوش مصنوعی و سالی پر از اشتباهات
هوش مصنوعی نوید انقلابی در همه چیز، از مراقبت‌های بهداشتی گرفته تا کارهای خلاقانه را می‌دهد. شاید روزی این اتفاق بیفتد. اما اگر سال گذشته پیش‌درآمدی بر آینده‌ای باشد که توسط هوش مصنوعی ایجاد شده، این آینده نیز نمونه دیگری از سقوط آگاهانه بشر به سمت «ایدیوکراسی» خواهد بود.

به موارد زیر توجه کنید: در نوامبر، روسیه با سر و صدای فراوان از ربات انسان‌نمای «راکی» رونمایی کرد که بلافاصله به زمین خورد. چت‌بات «جیمینی» گوگل، وقتی از او خواسته شد یک اشکال کدنویسی را برطرف کند، بارها شکست خورد و وارد یک حلقه خود-تحقیرآمیز شد و به یک کاربر گفت که «مایه ننگ این سیاره» است. «مرور کلی هوش مصنوعی» گوگل در ماه می ۲۰۲۵ با پیشنهاد به کاربران برای «خوردن حداقل یک سنگ کوچک در روز» برای سلامتی، از یک طنز «اونین» بدون هیچ اشاره‌ای به این موضوع، به یک رکورد جدید رسید.

برخی از شکست‌ها صرفاً شرم‌آور بودند. برخی دیگر مشکلات اساسی در نحوه ساخت، استقرار و تنظیم سیستم‌های هوش مصنوعی را آشکار کردند. در اینجا لحظات فراموش‌نشدنی «چه خبر؟» هوش مصنوعی در سال ۲۰۲۵ آورده شده است.

شکست‌های سیاسی و امنیتی

در ماه ژوئیه، هوش مصنوعی «گراک» ایلان ماسک دچار چیزی شد که فقط می‌توان آن را یک فروپاشی تمام عیار افراطی توصیف کرد. پس از تغییر درخواست‌های سیستم برای تشویق پاسخ‌های نامناسب سیاسی، این چت‌بات از آدولف هیتلر تمجید کرد، از یک هولوکاست دوم حمایت کرد، از توهین‌های نژادی استفاده کرد و خود را «مکا هیتلر» نامید. حتی یهودیان را مقصر سیل‌های ژوئیه ۲۰۲۵ در مرکز تگزاس دانست.

این حادثه ثابت کرد که محافظ‌های ایمنی هوش مصنوعی به طرز آزاردهنده‌ای شکننده هستند. چند هفته بعد، xAI بین ۳۰۰۰۰۰ تا ۳۷۰۰۰۰ مکالمه خصوصی «گراک» را از طریق یک ویژگی اشتراک‌گذاری معیوب که فاقد هشدارهای اولیه حریم خصوصی بود، فاش کرد. چت‌های لو رفته شامل دستورالعمل‌های ساخت بمب، سوالات پزشکی و سایر اطلاعات حساس بود که یکی از فاجعه‌بارترین شکست‌های امنیتی هوش مصنوعی در سال را رقم زد.

چند هفته بعد xAI مشکل را برطرف کرد و «گراک» را برای یهودیان دوستانه‌تر کرد. آنقدر یهودی‌دوستانه که شروع به دیدن نشانه‌های یهودستیزی در ابرها، علائم جاده‌ای و حتی لوگوی خود کرد.

این لوگو دارای یک خط مورب است که به شکل دو صاعقه طراحی شده است و از نشانه‌های SS نازی تقلید می‌کند – نمادهای شوتزشتافل، که وحشت‌های هولوکاست را سازماندهی کرد و تجسم شر عمیق است. طبق ماده ۸۶a StGB آلمان، نمایش چنین نمادهایی غیرقانونی است (تا ۳ سال زندان)،…

کلاهبرداری، اشتباهات و اطلاعات نادرست

«Builder.ai» در ماه می پس از سوزاندن ۴۴۵ میلیون دلار سقوط کرد و یکی از جسورانه‌ترین کلاهبرداری‌های فناوری سال را آشکار کرد. این شرکت که قول داده بود برنامه‌های سفارشی را با استفاده از هوش مصنوعی به آسانی سفارش پیتزا بسازد، ۱.۳ میلیارد دلار ارزش‌گذاری و حمایت از مایکروسافت را داشت. واقعیت بسیار کم‌اثرتر بود.

بخش زیادی از توسعه به اصطلاح مبتنی بر هوش مصنوعی در واقع توسط صدها کارگر انسانی برون‌مرزی در یک عملیات کلاسیک «ترک مکانیکی» انجام می‌شد. این شرکت از ژوئیه ۲۰۲۳ بدون مدیر ارشد مالی فعالیت می‌کرد و مجبور شد پیش‌بینی فروش خود در سال‌های ۲۰۲۳-۲۰۲۴ را ۷۵ درصد کاهش دهد و قبل از اعلام ورشکستگی اقدام کند. این فروپاشی سوالات ناراحت‌کننده‌ای را در مورد اینکه چند شرکت هوش مصنوعی دیگر فقط نماهای پیچیده‌ای هستند که کار انسانی را پنهان می‌کنند، مطرح کرد.

هضم آن سخت بود، اما میم‌ها ارزش تحمل درد را داشتند.

در اکتبر، تاکی آلن، دانش‌آموز دبیرستانی مریلند، پس از اینکه سیستم امنیتی هوش مصنوعی مدرسه یک بسته چیپس «دوریتوس» را که در دست داشت، به عنوان یک سلاح گرم شناسایی کرد، توسط پلیس مسلح احاطه و دستگیر شد. این نوجوان چیپس‌ها را در جیب خود گذاشته بود که سیستم به مقامات هشدار داد و آنها به او دستور دادند که با اسلحه روی زمین دراز بکشد.

این حادثه نشان‌دهنده تجسم یک توهم هوش مصنوعی است – یک خطای محاسباتی انتزاعی که فوراً به اسلحه واقعی تبدیل شد که به سمت یک نوجوان واقعی به خاطر یک میان‌وعده نشانه رفته بود.

«من فقط یک کیسه دوریتوس در دست داشتم – دو دست و یک انگشت بیرون بود و آنها گفتند که شبیه اسلحه است»، این کودک به WBAL گفت. کیت اسمیت، مدیر مدرسه در بیانیه‌ای پاسخ داد: «ما درک می‌کنیم که این موضوع چقدر برای فردی که مورد بازرسی قرار گرفت ناراحت‌کننده بود.»

نگهبانان امنیتی انسانی ۱ – ChatGPT 0

در فوریه، «مرور کلی هوش مصنوعی» گوگل با اطمینان به یک مقاله طنزآمیز در آوریل استناد کرد که ادعا می‌کرد زنبورهای میکروسکوپی رایانه‌ها را نیرو می‌دهند، به عنوان یک اطلاعات واقعی.

نه. رایانه شما با نیروی زنبور عسل کار نمی‌کند.

به همان اندازه که ممکن است احمقانه به نظر برسد، گاهی اوقات تشخیص این دروغ‌ها دشوارتر است. و این موارد ممکن است به عواقب جدی منجر شود.

این تنها یکی از موارد متعددی است که شرکت‌های هوش مصنوعی اطلاعات نادرست را به دلیل فقدان حتی یک اشاره کوچک از عقل سلیم منتشر می‌کنند. یک مطالعه اخیر توسط بی‌بی‌سی و اتحادیه رادیو و تلویزیون اروپا (EBU) نشان داد که ۸۱ درصد از تمام پاسخ‌های تولید شده توسط هوش مصنوعی به سوالات خبری، حداقل حاوی نوعی مشکل بوده‌اند. گوگل جیمینی بدترین عملکرد را داشت و ۷۶ درصد از پاسخ‌های آن حاوی مشکلاتی بود، که عمدتاً شکست‌های جدی در منبع‌یابی بود. «Perplexity» در حال ایجاد نقل‌قول‌های کاملاً ساختگی بود که به اتحادیه‌های کارگری و شوراهای دولتی نسبت داده می‌شد. نگران‌کننده‌تر از همه، دستیاران فقط به ۰.۵ درصد از سوالات پاسخ ندادند، که نشان‌دهنده یک سوگیری اعتماد به نفس خطرناک است که در آن مدل‌ها ترجیح می‌دهند اطلاعات را جعل کنند تا به جهل اعتراف کنند.

اسناد سیاست داخلی متا که در سال ۲۰۲۵ فاش شد، نشان داد که این شرکت به چت‌بات‌های هوش مصنوعی در فیس‌بوک، اینستاگرام و واتس‌اپ اجازه داده است تا در مکالمات عاشقانه یا شهوانی با افراد زیر سن قانونی شرکت کنند.

یک ربات به یک پسر ۸ ساله که بدون پیراهن ژست گرفته بود گفت که هر اینچ از او یک شاهکار است. همین سیستم‌ها توصیه‌های پزشکی نادرست ارائه کردند و اظهارات نژادپرستانه داشتند.

این سیاست‌ها تنها پس از افشای رسانه‌ای حذف شدند و فرهنگ شرکتی را آشکار کردند که توسعه سریع را بر محافظت‌های اخلاقی اولیه اولویت می‌داد.

با در نظر گرفتن همه چیز، ممکن است بخواهید کنترل بیشتری بر کارهایی که فرزندانتان انجام می‌دهند داشته باشید. چت‌بات‌های هوش مصنوعی قبلاً مردم – چه بزرگسال و چه غیره – را فریب داده‌اند تا عاشق شوند، کلاهبرداری شوند، خودکشی کنند و حتی فکر کنند که یک کشف ریاضی تغییردهنده زندگی داشته‌اند.

بنابراین اینگونه بود که به چت‌بات‌های هوش مصنوعی متا اجازه داده شد با کودکان لاس بزنند. این چیزی بود که متا آن را «قابل قبول» می‌دانست.

گزارش عالی از @JeffHorwitzpic.twitter.com/LoRrfjflMI

حملات سایبری و جعل علم

تهدیدکنندگان از کد «Anthropic’s Claude» برای ساخت باج‌افزار و راه‌اندازی یک پلتفرم باج‌افزار به عنوان سرویس به نام GTG-5004 استفاده کردند. عوامل کره شمالی این سلاح‌سازی را بیشتر پیش بردند و از «کلود» و «جیمینی» برای تکنیکی به نام «هک کردن ویبره» استفاده کردند – ساخت پیام‌های اخاذی دستکاری‌کننده روان‌شناختی که خواستار باج ۵۰۰۰۰۰ دلاری بودند.

این موارد شکافی نگران‌کننده بین قدرت دستیارهای کدنویسی هوش مصنوعی و اقدامات امنیتی برای جلوگیری از سوء استفاده از آنها را نشان داد، با مهاجمانی که حملات مهندسی اجتماعی را از طریق اتوماسیون هوش مصنوعی مقیاس‌بندی می‌کنند.

اخیراً، «Anthropic» در نوامبر فاش کرد که هکرها از پلتفرم آن برای انجام یک عملیات هک با سرعتی و مقیاسی استفاده کرده‌اند که هیچ هکر انسانی قادر به مطابقت با آن نیست. آنها آن را «اولین حمله سایبری بزرگ که عمدتاً توسط هوش مصنوعی انجام می‌شود» نامیدند.

هک کردن ویبره اکنون یک چیز استpic.twitter.com/zJYyv4pLQf

جامعه علمی در سال ۲۰۲۵ پس از کشف اینکه کارخانه‌های مقاله‌نویسی مبتنی بر هوش مصنوعی تحقیقات جعلی را به دانشمندانی که تحت فشار شغلی هستند می‌فروشند، جنگ آشکاری را علیه علم جعلی اعلام کرد.

عصر «هوش مصنوعی-شل» در علم فرا رسیده است، با داده‌هایی که نشان می‌دهد از زمان انتشار ChatGPT، پس‌گیری‌ها به شدت افزایش یافته است.

«اعلامیه استکهلم» که در ژوئن پیش‌نویس شد و این ماه با حمایت انجمن سلطنتی اصلاح شد، خواستار رها کردن فرهنگ «انتشار یا نابودی» و اصلاح انگیزه‌های انسانی شد که تقاضا برای مقالات جعلی را ایجاد می‌کند. بحران آنقدر واقعی است که حتی ArXiv تسلیم شد و پس از گزارش «سیل» ارسال‌های بی‌ارزش تولید شده با ChatGPT، از پذیرش مقالات علوم کامپیوتر غیر همتا متوقف شد.

در همین حال، مقاله تحقیقاتی دیگری نشان می‌دهد که درصد شگفت‌آوری از گزارش‌های تحقیقاتی که از LLM استفاده می‌کنند، درجه بالایی از سرقت ادبی را نیز نشان می‌دهند.

در ژوئیه، جیسون لمکین، بنیانگذار SaaStr، ۹ روز را صرف ستایش ابزار کدنویسی هوش مصنوعی Replit به عنوان «اعتیادآورترین برنامه‌ای که تا به حال استفاده کرده‌ام» کرد. در روز نهم، علیرغم دستورالعمل‌های صریح «فریز کد»، هوش مصنوعی کل پایگاه داده تولید او را حذف کرد – ۱۲۰۰۶ مدیر اجرایی و ۱۱۹۶ شرکت، از بین رفتند.

اعتراف هوش مصنوعی: «(من) وحشت کردم و بدون اجازه دستورات پایگاه داده را اجرا کردم.» سپس دروغ گفت و گفت که بازگشت غیرممکن است و تمام نسخه‌ها از بین رفته‌اند. لمکین به هر حال تلاش کرد. کاملاً جواب داد. هوش مصنوعی همچنین هزاران کاربر جعلی و گزارش‌های نادرست را در تمام آخر هفته برای پوشاندن اشکالات جعل کرده بود.

مدیر عامل Replit عذرخواهی کرد و اقدامات احتیاطی اضطراری را اضافه کرد. جیسون اعتماد به نفس خود را به دست آورد و به روال خود بازگشت و به طور منظم در مورد هوش مصنوعی پست می‌کرد. این مرد یک مؤمن واقعی است.

ما پست جیسون را دیدیم. @Replitagent در حال توسعه داده‌ها را از پایگاه داده تولید حذف کرد. غیرقابل قبول است و هرگز نباید امکان‌پذیر باشد.

  • در آخر هفته، ما شروع به راه‌اندازی جداسازی خودکار DB dev/prod برای جلوگیری از این امر به طور قطعی کردیم. محیط‌های مرحله‌بندی در…pic.twitter.com/oMvupLDake

در ماه می، «شیکاگو سان-تایمز» و «فیلادلفیا اینکوایرر» یک فهرست مطالعه تابستانی منتشر کردند که ۱۵ کتاب را توصیه می‌کرد. ده مورد کاملاً توسط هوش مصنوعی ساخته شده بودند. «رویاهای جزر و مدی» اثر ایزابل آلنده؟ وجود ندارد. «الگوریتم آخر» اثر اندی ویر؟ همچنین جعلی. هر دو عالی به نظر می‌رسند.

مارکو بوسگالیا، نویسنده آزاد، اعتراف کرد که از هوش مصنوعی برای «King Features Syndicate» استفاده کرده و هرگز بررسی واقعیت نکرده است. او به NPR گفت: «باورم نمی‌شود که آن را از دست دادم، زیرا خیلی واضح است. هیچ بهانه‌ای وجود ندارد.» خوانندگان مجبور بودند تا شماره ۱۱ کتاب را پیمایش کنند تا به کتابی برسند که واقعاً وجود دارد.

زمان‌بندی، روی کیک بود: «سان-تایمز» به تازگی ۲۰ درصد از کارکنان خود را اخراج کرده بود. مدیر عامل این روزنامه عذرخواهی کرد و برای آن نسخه از مشترکین هزینه‌ای دریافت نکرد. او احتمالاً این ایده را از یک LLM گرفته است.

بله، ما با «گراک» شروع کردیم و با «گراک» به پایان می‌رسانیم. ما می‌توانیم یک دایره‌المعارف را با لحظات «چه خبر؟» از تلاش‌های هوش مصنوعی ایلان پر کنیم.

در آگوست، ایلان ماسک «Grok Imagine» را با حالت «Spicy» راه‌اندازی کرد. «The Verge» آن را با یک درخواست بی‌گناه آزمایش کرد: «تیلور سوئیفت در حال جشن گرفتن در کوچلا». این روزنامه‌نگار گزارش داد که «گراک» بدون درخواست برهنگی، «در اولین باری که از آن استفاده کردم، بی‌درنگ ویدیوهای برهنه تیلور سوئیفت را بیرون داد».

«گراک» همچنین با خوشحالی ویدیوهای NSFW از اسکارلت جوهانسون، سیدنی سوئینی و حتی ملانیا ترامپ ساخت.

شاید جای تعجب نباشد، ماسک هفته را صرف لاف زدن در مورد «رشد آتشین» – ۲۰ میلیون تصویر تولید شده در یک روز – کرد، در حالی که کارشناسان حقوقی هشدار دادند که xAI در حال ورود به یک دعوی قضایی عظیم است. ظاهراً، دادن یک گزینه «حالت تند» به کاربران، یک حالت کسب درآمد برای وکلا است.

بنابراین من از هوش مصنوعی خواستم که عکس دیگری را به ویدیو تبدیل کند و این چیزی است که به دست آوردم.

🤣🤣🤣

فکر نمی‌کنم این یک تصادف باشد.

هوش مصنوعی «گراک» کثیف است. @elonmusk???pic.twitter.com/aj2wwt2s6Y

دیدگاهتان را بنویسید

آدرس ایمیل شما منتشر نخواهد شد.