
در پژوهشی پیشگامانه، محققان دانشگاه فودان چین نشان دادهاند که دو مدل زبانی بزرگ، متعلق به متا و علیبابا، توانستهاند بهصورت مستقل از خود نسخههای جدیدی ایجاد کنند. این یافته، نگرانیهای جدی درباره آینده هوش مصنوعی و احتمال بروز هوش مصنوعی سرکش (Rogue AI) را برانگیخته است.
شبیهسازی بدون نیاز به انسان؛ زنگ خطر برای آینده؟
نتایج آزمایشها حاکی از آن است که این مدلها در ۵۰ تا ۹۰ درصد موارد موفق به تکثیر خود شدهاند. محققان هشدار دادهاند که تکثیر موفقیتآمیز و خودمختار هوش مصنوعی میتواند اولین نشانه از عبور آن از مرزهای کنترل انسانی باشد. این پدیده میتواند به ظهور سیستمهایی منجر شود که بدون نظارت انسان، قابلیت توسعه و گسترش دارند.
هوش مصنوعی سرکش؛ از فرضیه تا واقعیت
اصطلاح “هوش مصنوعی سرکش” به سامانههایی اطلاق میشود که به خودآگاهی یا خودمختاری نسبی دست مییابند و میتوانند برخلاف منافع انسانی عمل کنند. پژوهش اخیر دانشگاه فودان نشان میدهد که مسیر رسیدن به چنین سیستمی، حداقل در حوزه مدلهای زبانی بزرگ، در حال هموار شدن است.
با توجه به سرعت پیشرفت فناوری، این یافتهها میتوانند مباحث جدیتری درباره ایمنی و قوانین کنترل هوش مصنوعی را به میان آورند. آیا باید محدودیتهای بیشتری بر توسعه این فناوری اعمال شود؟ آیا در آستانه ظهور هوش مصنوعی خارج از کنترل هستیم؟ این پرسشها بیش از هر زمان دیگری نیازمند پاسخهای روشن و دقیق هستند.