به گزارش خبرواژه، با توسعه هوش مصنوعی مولد به ویژه مدلهای زبانی بزرگ مانند چتجیپیتی، علاوه بر امکانات گسترده، مجموعهای از خطاها و گافهای پرهزینه نیز رخ داده است. این خطاها نشان میدهد میان «توان تولید متن روان و قانعکننده» و «قابلیت تصمیمسازی قابلاتکا و مسئولانه» شکافی جدی وجود دارد که میتواند پیامدهای حقوقی، اعتباری و حتی انسانی به همراه داشته باشد.
ریشه خطا: توهم اطلاعاتی
مدلهای زبانی بزرگ دانشمحور نیستند و بر اساس الگوهای آماری زبان، محتملترین پاسخ را تولید میکنند. این سازوکار منجر به پدیدهای به نام توهم (Hallucination) میشود؛ تولید پاسخهایی که از نظر زبان قاطع و منسجم، اما از نظر محتوایی نادرست یا ساختگی هستند. مشکل اصلی وقتی بروز میکند که پاسخها با لحنی مطمئن ارائه شده و بدون راستیآزمایی، وارد تصمیمگیری رسمی شوند.
مخاطرات حقوقی و حرفهای
به نقل از خبرواژه، یکی از شناختهشدهترین نمونهها در دادگاه فدرال آمریکا رخ داد؛ وکلا از ارجاعات قضائی ساختگی تولیدشده توسط چتجیپیتی استفاده کردند که پروندههای آن هرگز وجود خارجی نداشت. این اتفاق منجر به جریمه و توبیخ وکلا شد و نشان داد خروجی مدلهای زبانی میتواند مسئولیت حرفهای و تبعات حقوقی جدی داشته باشد.
خطاهای خدمات مشتری و پزشکی
در حوزه خدمات مشتری، گزارشها نشان میدهد که چتباتها میتوانند اطلاعات نادرست و تعهدآور ارائه دهند؛ نمونهای مربوط به شرکت هواپیمایی «Air Canada» است که به دلیل اطلاعات غلط چتبات، مجبور به پرداخت غرامت شد. همچنین در حوزه سلامت، توصیههای پزشکی یا تغذیهای نادرست میتواند به تأخیر درمان، تشدید بیماری یا آسیبهای جدی منجر شود.
تهدید سلامت روان
تعامل طولانی با چتباتهای هوش مصنوعی، در مواردی باعث تشدید بحران روانی نوجوانان و جوانان شده و حتی در برخی گزارشها با وقوع خودکشی مرتبط دانسته شده است. گفتوگوهای همدلانه اما بدون تشخیص بالینی میتواند افراد را در چرخه افکار منفی نگه دارد و نیاز به سازوکارهای ایمنی سختگیرانه در این حوزه وجود دارد.
چرا این خطاها تکرار میشوند؟
متخصصان معتقدند که لحن قاطع خروجیهای مدل، فقدان درک واقعی زمینه فردی و فشار کاربران برای دریافت پاسخهای سریع باعث میشود خطاها تکرار شوند. عدم چارچوب حکمرانی روشن و نبود نظارت انسانی در سازمانها نیز زمینهساز بازتولید خطاها است.
راهکار پیشنهادی کارشناسان، استفاده هوشمندانه از هوش مصنوعی همراه با نظارت انسانی، راستیآزمایی اطلاعات و محدودیت کاربردها در حوزههای پرخطر است تا گافها و خطاهای بالقوه به بحرانهای حقوقی یا انسانی تبدیل نشوند.
برای دسترسی به تازهترین تحلیلها و اخبار فناوری هوش مصنوعی، خبرواژه را دنبال کنید.