|
به هوش مصنوعی این اطلاعات را ندهید! |
|
شما باید هنگام صحبت با چتباتهای آنلاین مانند ChatGPT خیلی محتاط باشید. باید حواستان باشد، خطر سرقت هویت یا دسترسی غیرمجاز به حسابهای بانکی را بهدلیل یک اشتباه رایج به جان نخرید. |
|
شما باید هنگام صحبت با چتباتهای آنلاین مانند ChatGPT خیلی محتاط باشید. باید حواستان باشد، خطر سرقت هویت یا دسترسی غیرمجاز به حسابهای بانکی را بهدلیل یک اشتباه رایج به جان نخرید.
روزنامه سان در این خصوص با یک کارشناس امنیتی برجسته صحبت کرده که میگوید، استفاده از چتباتهای هوش مصنوعی باید با احتیاط انجام شود.
چتباتهای هوش مصنوعی در همه جا وجود دارند (حتی در اپلیکیشنهایی مانند واتساپ) بنابراین مهم است که بدانید چه چیزی باید به آنها بگویید و چه چیزی نگویید.
استوارت گرین، کارشناس امنیت سایبری، هشدار میدهد: «چتباتهایی مانند ChatGPT و ابزارهای مشابه هوش مصنوعی را مانند یک غریبه در نظر بگیرید.
سیستمهای هوش مصنوعی اغلب دارای یک رابط شبیه به انسان هستند، بنابراین مهم است که با آنها مانند یک فرد بیگانه رفتار کنید.»
قانون سه حرفی
این اصطلاح کمتر شناختهشده سهحرفی مخفف «اطلاعات شناسایی شخصی» (Personally Identifiable Information) است.
استوارت گفت: «این شامل نام کامل شما، آدرس خانه، آدرس ایمیل، شماره تلفن یا هر نوع شناسایی مثل اطلاعات گذرنامه است. اشتراکگذاری PII میتواند خطر سرقت هویت، افشای اطلاعات یا دسترسی غیرمجاز به حسابهای شخصی شما را افزایش دهد. حتی اگر پلتفرم اطلاعات شما را ناشناس کند، همیشه احتمال نشت داده، وجود دارد. البته، لیست اطلاعاتی که نباید با چتباتهای هوش مصنوعی به اشتراک بگذارید فراتر از PII است.»
اطلاعات مالی
چتباتها انسانگونه هستند و میتوانند بسیار قانعکننده باشند، بنابراین ممکن است بهراحتی توسط یک هوش مصنوعی فریب بخورید. استوارت میگوید: «شماره کارت اعتباری، جزئیات حساب بانکی و رمزهای عبور باید خصوصی نگه داشته شوند. اشتراکگذاری دادههای مالی آنلاین شما را در معرض خطر کلاهبرداری، سرقت یا تقلب قرار میدهد اگر این اطلاعات فاش شود. به همان اندازه مهم است که اطلاعات ورود به سیستم خود مانند نامهای کاربری، رمزهای عبور یا کدهای تأیید دو مرحلهای را به اشتراک نگذارید.»
همشهری آنلاین
انتهای پیام/م |