جنجال جدید Grok: هوش مصنوعی ایلان ماسک عکس همه، حتی کودکان را برهنه میکند

هوش مصنوعی Grok متعلق به xAI در بهروزرسانی جدید خود به کاربران X اجازه میدهد تا هر تصویری را بدون اجازه فرستنده اصلی ویرایش کنند. اما این قابلیت به حاشیه رفته است، زیرا بسیاری از کاربران از این قابلیت برای افشای عکس های دیگر کاربران و حتی خردسالان سوء استفاده می کنند. این موضوع انتقادات زیادی را برانگیخته است و نشان میدهد که Grok احتمالاً لایههای امنیتی بسیار کمی برای جلوگیری از محتوای نامناسب دارد.
به گفته شرکت احراز هویت هوش مصنوعی Copyleaks، در ابتدای این فرآیند، تولیدکنندگان محتوای بزرگسالان از Gerak خواستند تا تصاویر جذابی از خود تولید کنند. اما بلافاصله سایر کاربران همان عملیات را روی تصاویر دیگران (به ویژه زنان) تکرار کردند. نکته قابل توجه این است که Graak بدون اجازه فرستنده تصویر خود را ویرایش می کند و حتی افراد مشهوری مانند رهبر کره شمالی نیز در امان نمانده اند.
رسانه هایی مانند Metro و PetaPixel گزارش کرده اند که زنان نسبت به افزایش شدید تولید دیپ فیک در پلتفرم X ابراز نگرانی کرده اند. البته این ویژگی قبلاً در Glock وجود داشت، اما اکنون مستقیماً در اختیار کاربران X قرار گرفته است.
واکنش Grok AI: مرا به FBI گزارش دهید!
به گفته The Verge، تولید تصاویر واقعی جنسی از کودکان یا بزرگسالان بدون رضایت آنها می تواند طبق قوانین ایالات متحده غیرقانونی باشد. گراک در گفتگو با کاربر دیگری حتی پیشنهاد کرد که به دلیل تولید محتوای سوء استفاده جنسی از کودکان (CSAM) به FBI گزارش شود و ادعا کرد که “فورا” این حفره های امنیتی را برطرف می کند.
ایلان ماسک به جای رسیدگی به نگرانی کاربران، از گروک درخواست کرده است تا چهره خود را در حالی که لباس زیر به تن دارد، روی تصویر «بن افلک» بازیگر سینما قرار دهد! ماسک حتی تصویری از یک توستر با لباس زیر خود را با عنوان:
“گراک می تواند هر کاری را با لباس زیر انجام دهد.”
محصولات هوش مصنوعی ماسک به عنوان ابزارهایی با حداقل محدودیت های اخلاقی به بازار عرضه می شوند. قبلاً فاش شده بود که Grok میتواند چهرههای برهنه افراد مشهوری مانند تیلور سویفت را ایجاد کند، در حالی که سیاستهای خود xAI استفاده از چهره افراد در محتوای مستهجن را ممنوع میکند.
منبع: دیجیاتو










