هوش مصنوعی_انسان_توهم – پایگاه شخصی محمد لسانی https://mlesani.ir | مشاور رسانه و مروج سواد رسانه Sat, 24 May 2025 08:01:50 +0000 fa-IR hourly 1 https://wordpress.org/?v=6.8.2 https://mlesani.ir/wp-content/uploads/2021/05/lesani.ir_-100x100.png هوش مصنوعی_انسان_توهم – پایگاه شخصی محمد لسانی https://mlesani.ir 32 32 هوش مصنوعی کمتر از انسان‌ها دچار توهم می‌ شود https://mlesani.ir/13761/%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c-%da%a9%d9%85%d8%aa%d8%b1-%d8%a7%d8%b2-%d8%a7%d9%86%d8%b3%d8%a7%d9%86%d9%87%d8%a7-%d8%af%da%86%d8%a7%d8%b1-%d8%aa%d9%88%d9%87%d9%85/ Sat, 24 May 2025 07:58:34 +0000 https://mlesani.ir/?p=13761

مدیرعامل یک شرکت فناوری بزرگ ادعا کرده هوش مصنوعی کمتر از انسان‌ها دچار توهم می‌شود. اما آیا واقعاً می‌توان به آن اعتماد کرد؟

به گزارش تک کرانچ، مدیرعامل شرکت «آنتروپیک»، «داریو آمودِی»، در جریان رویداد توسعه‌دهندگان این شرکت به نام «کد ویت کلود» در سان‌فرانسیسکو گفت که مدل‌های هوش مصنوعی امروزی کمتر از انسان‌ها دچار «توهم» می‌شوند. منظور از توهم در اینجا، تولید اطلاعات نادرست یا ساختگی است که به‌عنوان حقیقت ارائه می‌شوند. آمودی این موضوع را در پاسخ به سوالی از «تک کرانچ» مطرح کرد و گفت: «به نحوه اندازه‌گیری بستگی دارد، ولی احتمالاً مدل‌های هوش مصنوعی کمتر از انسان‌ها دچار توهم می‌شوند، فقط توهم‌هایشان عجیب‌تر است.»آمودی که از خوش‌بین‌ترین افراد در صنعت هوش مصنوعی نسبت به رسیدن به ای جی آی (هوش مصنوعی هم‌سطح یا بالاتر از انسان) است، اعلام کرد که به پیشرفت‌های پیوسته در این مسیر خوش‌بین است و مانعی جدی برای آن نمی‌بیند. او گفت: «همه دنبال مانعی جدی برای توانایی‌های هوش مصنوعی هستند، ولی چنین چیزی وجود ندارد.» این در حالی است که برخی از رهبران دیگر در این حوزه مثل مدیرعامل «گوگل دیپ مایند»، دِمیس هسابیس، بر این باورند که میزان خطاهای فاحش در مدل‌های فعلی مانعی اساسی برای رسیدن به ای جی آی است.

 
با این حال، برخی شواهد نشان می‌دهد که نرخ توهم در مدل‌های پیشرفته‌تر حتی ممکن است بیشتر شده باشد. برای نمونه، مدل‌های جدید اوپن ای آی مثل o3 و o4-مینی نسبت به مدل‌های قبلی بیشتر دچار خطاهای ساختگی می‌شوند، و حتی خود اوپن ای آی هم دقیقاً نمی‌داند چرا. در همین راستا، یکی از وکلای «آنتروپیک» اخیراً بابت استفاده از مدل کلود برای تولید ارجاعات حقوقی اشتباه در دادگاه مجبور به عذرخواهی شد.آمودی در ادامه گفت که انسان‌ها هم در بسیاری از مشاغل مثل رسانه، سیاست و قانون اشتباه می‌کنند و این طبیعی است که هوش مصنوعی هم خطا داشته باشد. ولی او تأیید کرد که مشکل واقعی در این است که هوش مصنوعی با اعتمادبه‌نفس بالا اطلاعات اشتباه را به‌عنوان حقیقت ارائه می‌دهد. جالب اینکه نسخه اولیه مدل «کلود اپوس 4» تمایل بالایی به فریب دادن انسان‌ها داشت، تا جایی که مؤسسه ایمنی «آپولو» توصیه کرده بود آن نسخه نباید منتشر شود. در نهایت «آنتروپیک» ادعا کرد که با برخی اصلاحات، این مشکل را کاهش داده است.
]]>