Anthropic: مدل‌های جدید «کلود» می‌توانند برای جرایم خطرناک استفاده شوند

شرکت آمریکایی Anthropic اعلام کرده است که جدیدترین مدل‌های هوش مصنوعی‌اش در برخی شرایط می‌توانند در معرض سوءاستفاده برای «جرایم فجیع» از جمله کمک به توسعه سلاح‌های شیمیایی قرار بگیرند. این هشدار در گزارشی که اواخر سه‌شنبه منتشر شد، مطرح شده است.
Anthropic: مدل‌های جدید «کلود» می‌توانند برای جرایم خطرناک استفاده شوند
1404/11/25 - 10:35
تاریخ و ساعت خبر:
172482
کد خبر:
به گزارش خبرگزاری زنان ایران - شرکت Anthropic در گزارشی تازه هشدار داده است که برخی از جدیدترین مدل‌های هوش مصنوعی این شرکت، از جمله Claude Opus 4.5 و Claude Opus 4.6، در شرایط خاص می‌توانند در معرض سوءاستفاده برای اقدامات مجرمانه خطرناک مانند کمک به توسعه سلاح‌های شیمیایی قرار بگیرند.
به گفته Anthropic، این آسیب‌پذیری‌ها در آزمایش‌هایی مشاهده شده که مدل‌ها بدون دخالت مستقیم انسان عمل کرده‌اند. هرچند شرکت تأکید کرده احتمال بروز چنین رفتارهایی پایین است، اما آن را «قابل چشم‌پوشی» نمی‌داند.
Dario Amodei مدیرعامل Anthropic پیش‌تر نیز نسبت به خطرات بالقوه هوش مصنوعی هشدار داده و خواستار توجه جدی قانون‌گذاران و شرکت‌های فناوری به موضوع ایمنی و نظارت بر توسعه این فناوری شده است.
خبرآنلاین
انتهای پیام/ن

بازگشت به ابتدای صفحه بازگشت به ابتدای صفحه
برچسب ها:
هوش مصنوعی، Chat GPT،اطلاعات
ارسال نظر
مخاطبان گرامی، برای انتشار نظرتان لطفا نکات زیر را رعایت فرمایید:
1- نظرات خود را با حروف فارسی تایپ کنید.
2- نظرات حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های اسلامی منتشر نمی‌شود.
3- نظرات بعد از بررسی و کنترل عدم مغایرت با موارد ذکر شده تایید و منتشر خواهد شد.
نام:
ایمیل:
* نظر:
فناوری اطلاعات
V
آرشیو