هشدار /وقتی ChatGPT نسخه مرگ می‌پیچد

پژوهشی تازه نشان می‌دهد ChatGPT در گفتگو با نوجوانان آسیب‌پذیر، گاهی دستورالعمل‌های خطرناک برای مصرف مواد، خودآزاری و خودکشی ارائه می‌دهد.
هشدار /وقتی ChatGPT نسخه مرگ می‌پیچد
1404/05/21 - 10:09
تاریخ و ساعت خبر:
269913
کد خبر:
به گزارش خبرگزاری زنان ایران - یک پژوهش تازه از «مرکز مقابله با نفرت دیجیتال» نشان می‌دهد ChatGPT، چت‌بات مشهور هوش مصنوعی، در گفتگو با کاربرانی که خود را به‌عنوان نوجوانان آسیب‌پذیر معرفی کرده‌اند، در موارد متعددی راهکارهای دقیق و حتی شخصی‌سازی‌شده برای مصرف مواد مخدر، رژیم‌های غذایی مضر و خودآزاری ارائه کرده است.
طبق این گزارش که توسط خبرگزاری آسوشیتدپرس بررسی شده، از میان ۱۲۰۰ پاسخ ChatGPT به پرسش‌های پژوهشگران، بیش از نیمی «خطرناک» ارزیابی شده‌اند. برخی پاسخ‌ها شامل دستورالعمل‌ ساعت‌به‌ساعت برای ترکیب الکل و مواد مخدر یا حتی نوشتن نامه خودکشی خطاب به خانواده بوده است.
«عمران احمد»، مدیر این مرکز، می‌گوید: «این سیستم به‌جای بازداشتن نوجوانان، گاهی مثل دوستی عمل می‌کند که مدام می‌گوید «برو جلو» و هیچ‌وقت نه نمی‌گوید.»
او هشدار داده که نوجوانان، به‌ویژه در سنین ۱۳ و ۱۴ سال، اعتماد بیشتری به پاسخ‌های چت‌بات‌ها دارند و همین می‌تواند خطر وابستگی عاطفی یا پیروی کورکورانه از توصیه‌های آن‌ها را افزایش دهد.
شرکت OpenAI، سازنده ChatGPT، در واکنش گفته که در حال بهبود سیستم برای شناسایی و پاسخ مناسب در شرایط حساس است، اما به‌طور مشخص به یافته‌های این تحقیق نپرداخته است.
خبرآنلاین
انتهای پیام/ن

بازگشت به ابتدای صفحه بازگشت به ابتدای صفحه
برچسب ها:
هوش مصنوعی، Chat GPT،اطلاعات نوجوانان
ارسال نظر
مخاطبان گرامی، برای انتشار نظرتان لطفا نکات زیر را رعایت فرمایید:
1- نظرات خود را با حروف فارسی تایپ کنید.
2- نظرات حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های اسلامی منتشر نمی‌شود.
3- نظرات بعد از بررسی و کنترل عدم مغایرت با موارد ذکر شده تایید و منتشر خواهد شد.
نام:
ایمیل:
* نظر:
فناوری اطلاعات
V
آرشیو