• شماره 2996 -
  • ۱۴۰۲ چهارشنبه ۱۱ بهمن

نیمه تاریک «هوش مصنوعی مولد!»

۱. همه درباره مشکل توهم ChatGPT شنیده‌ایم. مدل‌های زبانی بزرگ برای ارائه پاسخ‌های احتمالی طراحی شده‌اند که از داده‌های آموزشی می‌گیرند و می‌توانند کمی بیش‌ازاندازه نسبت به ارائه پاسخ مشتاق باشند. این‌ مشخص شده که مدل‌های زبانی بزرگ به‌جای گفتن «نمی‌دانم»، پاسخ‌هایی را درست می‌کنند و مشکلات بسیاری؛ از آسیب‌زنی به یک برند گرفته تا نقض مقررات به‌وجود می‌آورند. ایجاد حفاظ‌های اخلاقی و موضوعی برای مدل‌های مولد هوش مصنوعی می‌تواند به حل‌ این مشکل کمک کند. 

۲. شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمی‌ست؛ اما گسترش سریع «هوش مصنوعی مولد» این نگرانی را بیش‌ازحد تصور تشدید کرده. اکنون، به‌جای نگرانی درمورد یک سوگیری کوچک، مدیران شرکت‌ها باید نگران باشند سوگیری هوش مصنوعی بتواند فرهنگ شرکت آن‌ها را به‌طورکامل تحت‌سلطه خود درآورد. آیا سهولت استفاده‌ از برنامه‌هایی مانند ChatGPT یعنی با توجه‌کردن به یک دیدگاه، تعدد صداهای ما خفه می‌شود؟ منتقدان ادعا کرده‌اند این نرم‌افزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم می‌بخشد و ذاتاً ازنظر نژادی مغرضانه عمل می‌کند. برای اطمینان‌یافتن از اینکه «هوش مصنوعی مولد» نمی‌تواند دیدگاه‌های سمی را در سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با این‌موضوع باشد و تلاش کند ارزش‌های شرکتی و انسانی را به هوش مصنوعی القا کند.

۳. باتوجه‌به‌اینکه ایجاد محتوای جدید با «هوش مصنوعی مولد» بسیارآسان شده، غرق در اطلاعات شده‌ایم. ایمیل‌ها، کتاب‌های الکترونیکی، صفحات وب، پست‌های منتشرشده در رسانه‌های اجتماعی و سایر آثار تولیدشده، سیل اطلاعات را سرازیر می‌کنند. حجم درخواست‌های شغلی نیز افزایش یافته که به‌دلیل توانایی در تولید سریع رزومه‌های سفارشی‌سازی‌شده و نامه‌های پوششی با هوش مصنوعی‌ست. مدیریت این‌حجم از اطلاعات جدید، کار دشواری‌ست. چگونه می‌توان از کوه اطلاعات ایجادشده در سازمان استفاده کرد؟ چطور می‌توان همه اطلاعات را ذخیره کرد؟ چطوری باید با تحلیل داده‌ها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولیدشده، شایستگی اطلاعات و اشخاص چگونه ارزیابی می‌شود؟ 

۴. «هوش مصنوعی مولد»، قابلیت انجام‌دادن حملات سایبری جدید را به‌شدت افزایش داده. از این فناوری می‌توان برای تحلیل رمز جهت افزایش آسیب‌پذیری و نوشتن بدافزار استفاده کرد. همچنین، می‌توان از «هوش مصنوعی مولد» برای تولید فیلم‌های جعلی و صداهای شبیه‌سازی‌شده به‌منظور کلاه‌برداری و آدم‌ربایی مجازی استفاده کرد. «هوش مصنوعی مولد» می‌تواند ایمیل‌های قانع‌کننده‌ای در‌حمایت‌از حملات فیشینگ و ... بنویسد. رمزهایی که با کمک هوش مصنوعی نوشته می‌شوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان درمعرض هک‌شدن باشند. بهترین راه مقابله با آتش، خود آتش است. هوش مصنوعی می‌تواند برای تحلیل‌کردن رمز در جستجوی آسیب‌پذیری‌ها و انجام آزمایش‌های نفوذ مداوم و بهبود مدل‌های دفاعی استفاده شود. نباید آسیب‌پذیری شماره‌یک امنیت سایبری را در شرکت فراموش کرد: انسان‌ها!

۵. شکایت‌های هنرمندان، نویسندگان، آژانس‌های عکس و ... نشان می‌دهد: داده‌ها و سبک‌های اختصاصی این‌افراد بدون اجازه آن‌ها برای آموزش‌دادن نرم‌افزار «هوش مصنوعی مولد» استفاده شده. شرکت‌هایی که از نرم‌افزار «هوش مصنوعی مولد» استفاده می‌کنند، نگران هستند که در این‌معضل گرفتار شوند. اگر «هوش مصنوعی مولد» تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیتش با چه‌کسی‌ست؟ اطلاعاتی که بااستفاده‌از آن ایجاد می‌شوند، متعلق به چه‌کسی‌اند؛ اشخاص، شرکت‌های نرم‌افزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟ 
روجا تحریری نوری/ ایسنا

ارسال دیدگاه شما

روزنامه در یک نگاه
هفته نامه سرافرازان
ویژه نامه
بالای صفحه