نیمه تاریک «هوش مصنوعی مولد!»
۱. همه درباره مشکل توهم ChatGPT شنیدهایم. مدلهای زبانی بزرگ برای ارائه پاسخهای احتمالی طراحی شدهاند که از دادههای آموزشی میگیرند و میتوانند کمی بیشازاندازه نسبت به ارائه پاسخ مشتاق باشند. این مشخص شده که مدلهای زبانی بزرگ بهجای گفتن «نمیدانم»، پاسخهایی را درست میکنند و مشکلات بسیاری؛ از آسیبزنی به یک برند گرفته تا نقض مقررات بهوجود میآورند. ایجاد حفاظهای اخلاقی و موضوعی برای مدلهای مولد هوش مصنوعی میتواند به حل این مشکل کمک کند.
۲. شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمیست؛ اما گسترش سریع «هوش مصنوعی مولد» این نگرانی را بیشازحد تصور تشدید کرده. اکنون، بهجای نگرانی درمورد یک سوگیری کوچک، مدیران شرکتها باید نگران باشند سوگیری هوش مصنوعی بتواند فرهنگ شرکت آنها را بهطورکامل تحتسلطه خود درآورد. آیا سهولت استفاده از برنامههایی مانند ChatGPT یعنی با توجهکردن به یک دیدگاه، تعدد صداهای ما خفه میشود؟ منتقدان ادعا کردهاند این نرمافزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم میبخشد و ذاتاً ازنظر نژادی مغرضانه عمل میکند. برای اطمینانیافتن از اینکه «هوش مصنوعی مولد» نمیتواند دیدگاههای سمی را در سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با اینموضوع باشد و تلاش کند ارزشهای شرکتی و انسانی را به هوش مصنوعی القا کند.
۳. باتوجهبهاینکه ایجاد محتوای جدید با «هوش مصنوعی مولد» بسیارآسان شده، غرق در اطلاعات شدهایم. ایمیلها، کتابهای الکترونیکی، صفحات وب، پستهای منتشرشده در رسانههای اجتماعی و سایر آثار تولیدشده، سیل اطلاعات را سرازیر میکنند. حجم درخواستهای شغلی نیز افزایش یافته که بهدلیل توانایی در تولید سریع رزومههای سفارشیسازیشده و نامههای پوششی با هوش مصنوعیست. مدیریت اینحجم از اطلاعات جدید، کار دشواریست. چگونه میتوان از کوه اطلاعات ایجادشده در سازمان استفاده کرد؟ چطور میتوان همه اطلاعات را ذخیره کرد؟ چطوری باید با تحلیل دادهها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولیدشده، شایستگی اطلاعات و اشخاص چگونه ارزیابی میشود؟
۴. «هوش مصنوعی مولد»، قابلیت انجامدادن حملات سایبری جدید را بهشدت افزایش داده. از این فناوری میتوان برای تحلیل رمز جهت افزایش آسیبپذیری و نوشتن بدافزار استفاده کرد. همچنین، میتوان از «هوش مصنوعی مولد» برای تولید فیلمهای جعلی و صداهای شبیهسازیشده بهمنظور کلاهبرداری و آدمربایی مجازی استفاده کرد. «هوش مصنوعی مولد» میتواند ایمیلهای قانعکنندهای درحمایتاز حملات فیشینگ و ... بنویسد. رمزهایی که با کمک هوش مصنوعی نوشته میشوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان درمعرض هکشدن باشند. بهترین راه مقابله با آتش، خود آتش است. هوش مصنوعی میتواند برای تحلیلکردن رمز در جستجوی آسیبپذیریها و انجام آزمایشهای نفوذ مداوم و بهبود مدلهای دفاعی استفاده شود. نباید آسیبپذیری شمارهیک امنیت سایبری را در شرکت فراموش کرد: انسانها!
۵. شکایتهای هنرمندان، نویسندگان، آژانسهای عکس و ... نشان میدهد: دادهها و سبکهای اختصاصی اینافراد بدون اجازه آنها برای آموزشدادن نرمافزار «هوش مصنوعی مولد» استفاده شده. شرکتهایی که از نرمافزار «هوش مصنوعی مولد» استفاده میکنند، نگران هستند که در اینمعضل گرفتار شوند. اگر «هوش مصنوعی مولد» تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیتش با چهکسیست؟ اطلاعاتی که بااستفادهاز آن ایجاد میشوند، متعلق به چهکسیاند؛ اشخاص، شرکتهای نرمافزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟
روجا تحریری نوری/ ایسنا