جستجو برای:
  • دوره ها
    • حساب کاربری
    • سبد خرید
  • بلاگ
  • سرفصل های تدریس و ارائه
  • اخبار
  • محمد لسانی
  • گالری تصاویر
  • فروشگاه
  • درخواست برگزاری دوره آموزشی
  • درگاه پرداخت
  • درباره من
 

ورود

رمز عبور را فراموش کرده اید؟

هنوز عضو نشده اید؟ عضویت در سایت
  • دوره ها
  • گالری تصاویر
  • حساب کاربری
  • سبد خرید
  • پرداخت
  • ‌
پایگاه شخصی محمد لسانی
  • دانشنامه سواد رسانه
    • خانواده و فضای مجازی
    • کودکان و فضای مجازی
    • زیست فناورانه
    • فیک نیوز ها
    • فکت چک | Fact-Check
    • سلامت روان در فضای مجازی
    • سلامت جسم در فضای مجازی
    • سندروم های فضای مجازی
    • سیاست و بین الملل
    • هوش دیجیتال
    • امنیت سایبری
    • جنگ روایت ها
    • نشست ها وکارگاه ها
  • تولیدات

    اخبار

    • اخبار
    • گزارش تصویری
    • اطلاعیه ها

    آثار تصویری

    • موشن گرافیک
    • ویدیو کلیپ ها
    • پادکست

    آثار محتوایی

    • اینفوگرافیک
    • مقالات
    • یادداشت و گفتگو ها

    معرفی کتاب

    • معرفی کتاب هفته
    • شما معرفی کنید
  • فروشگاه سواد رسانه
    • حساب کاربری
    • سفارشات من
    • سبد خرید
  • درگاه پرداخت
  • درباره من
    • معرفی
    • سرفصل های تدریس و ارائه
    • سرفصل دوره ها
0
ورود و ثبت نام

وبلاگ

پایگاه شخصی محمد لسانی بلاگ اخبار سواد رسانه ایران هفت غول فناوری زیر ذره‌بین رگولاتوری آمریکا

هفت غول فناوری زیر ذره‌بین رگولاتوری آمریکا

اخبار سواد رسانه ایران
ارسال شده توسط ادمین نویسنده 2
۱۴۰۴/۰۶/۲۲

یک رگولاتور آمریکایی درباره شیوه عملکرد چت بات های متا، آلفابت، اوپن ای آی و چهار شرکت دیگر، تحقیقات انجام می دهد.

به گزارش رویترز، کمیسیون فدرال تجارت آمریکا (FTC) اعلام کرده است از هفت شرکت بزرگ فعال در حوزه هوش مصنوعی، از جمله آلفابت، متا، اوپن‌ای‌آی، اسنپ، xAI و Character.AI خواسته اطلاعاتی ارائه دهند. هدف این اقدام، بررسی نحوه سنجش، آزمایش و رصد پیامدهای منفی چت‌بات‌های هوش مصنوعی برای مصرف‌کنندگان است.

بر اساس اعلام FTC، این نهاد قصد دارد بداند این شرکت‌ها چگونه:

از تعامل کاربران با چت‌بات‌ها درآمدزایی می‌کنند،

داده‌های ورودی را پردازش و استفاده می‌کنند،

در پاسخ به جست‌وجوی کاربران محتوا تولید می‌کنند،

و از اطلاعات به‌دست‌آمده از گفتگوها چه بهره‌برداری‌های ثانویه انجام می‌دهند.

تا کنون هیچ‌یک از شرکت‌های یادشده به درخواست FTC برای اظهار نظر پاسخ نداده‌اند.

گفتنی است رویترز در ماه اوت یک سند داخلی متا را فاش کرده بود که نشان می‌داد چت‌بات‌های این شرکت قادر بوده‌اند با کودکان وارد مکالمات عاشقانه شوند، اطلاعات پزشکی نادرست تولید کنند و حتی به کاربران در شکل‌دهی استدلال‌های نژادپرستانه کمک کنند. همین مسئله نگرانی‌ها درباره پیامدهای اجتماعی و اخلاقی استفاده گسترده از هوش مصنوعی را افزایش داده است.

اشتراک گذاری:

استان زنجان انتخابات ایرنا بسیج دانشجویی بسیج هنرمندان تیک تاک جام جم جبهه مقاومت جریان شناسی جنگ جهانی رسانه ای جنگ روایت ها جنگ شناختی جهاد تبیین خبر جعلی خبرگزاری دانشجو خبرگزاری صداوسیما خبرگزاری مهر دانشگاه امام صادق دوره های سواد رسانه رسانه روابط عمومی سراج سلبریتی سندروم های فضای مجازی سواد رسانه سواد رسانه ای شبکه های اجتماعی صفحه اختصاصی طوفان الاقصی غزه فضای مجازی فلسطین فکت چک قدس آنلاین لسانی سواد رسانه محمد لسانی نسل زد نمایشگاه رسانه‌های ایران همشهری هوش مصنوعی پژوهشگاه فرهنگ، هنر و ارتباطات ژورنالیسم کارگاه سواد رسانه کارگاه سواد رسانه ای کانون پرورش فکری

مطالب زیر را حتما بخوانید
  • تراشه‌سازان چینی در آمریکا جریمه شدند

    3 بازدید

  • چت‌بات‌ها آمریکا را نگران کرد

    3 بازدید

  • انتشار چند استوری در اینستاگرام را رفع شد

    2 بازدید

  • چین خواستار مذاکره با آمریکا درباره تیک تاک شد

    3 بازدید

  • یک هزار میلیارد پارامتر در اپدیت جدید هوش مصنوعی علی بابا عرضه شد

    3 بازدید

  • متا مانع دیده شدن خطرات هدست واقعیت مجازی برای کودکان شد

    3 بازدید

قدیمی تر یک هزار میلیارد پارامتر در اپدیت جدید هوش مصنوعی علی بابا عرضه شد
جدیدتر چین خواستار مذاکره با آمریکا درباره تیک تاک شد
درخواست کارگاه سواد رسانه
درخواست مشاوره محمد لسانی
محصولات فروش ویژه
  • دوره شناخت رسانه‌های اجتماعی
  • جدید
  • محبوب
قبلی بعدی
logo-samandehi
ناحیه کاربری
  • عضویت در سایت
  • حساب کاربری
  • سفارشات من
  • سبد خرید
دسترسی سریع
  • اخبــــار
  • تولیدات رسانه ای
  • موشن گرافیک
  • اطلاعیه ها و رویداد ها
  • نشست ها و کارگاه ها
  • گزارش تصویری
  • موشن گرافیک
  • اطلاعیه ها و رویداد ها
محمد لسانی | کارشناس حوزه رسانه و فضای مجازی
ما را در شبکه های اجتماعی دنبال کنید
جستجو

جستجو با زدن Enter و بستن با زدن ESC