دوشنبه ۱۶ مهر ۱۴۰۳ - ۰۰:۰۵
۲ نفر

شما باید هنگام صحبت با چت‌بات‌های آنلاین مانند ChatGPT خیلی محتاط باشید. باید حواس‌تان باشد، خطر سرقت هویت یا دسترسی غیرمجاز به حساب‌های بانکی را به‌دلیل یک اشتباه رایج به جان نخرید.

هوش مصنوعی

به گزارش همشهری آنلاین، روزنامه سان در این خصوص با یک کارشناس امنیتی برجسته صحبت کرده که می‌گوید، استفاده از چت‌بات‌های هوش مصنوعی باید با احتیاط انجام شود.

چت‌بات‌های هوش مصنوعی در همه جا وجود دارند (حتی در اپلیکیشن‌هایی مانند واتساپ) بنابراین مهم است که بدانید چه چیزی باید به آنها بگویید و چه چیزی نگویید.

استوارت گرین، کارشناس امنیت سایبری، هشدار می‌دهد: «چت‌بات‌هایی مانند ChatGPT و ابزارهای مشابه هوش مصنوعی را مانند یک غریبه در نظر بگیرید.

سیستم‌های هوش مصنوعی اغلب دارای یک رابط شبیه به انسان هستند، بنابراین مهم است که با آنها مانند یک فرد بیگانه رفتار کنید.»

قانون سه‌ حرفی

این اصطلاح کمتر شناخته‌شده سه‌حرفی مخفف «اطلاعات شناسایی شخصی» (Personally Identifiable Information) است.

استوارت گفت: «این شامل نام کامل شما، آدرس خانه، آدرس ایمیل، شماره تلفن یا هر نوع شناسایی مثل اطلاعات گذرنامه است. اشتراک‌گذاری PII می‌تواند خطر سرقت هویت، افشای اطلاعات یا دسترسی غیرمجاز به حساب‌های شخصی شما را افزایش دهد. حتی اگر پلتفرم اطلاعات شما را ناشناس کند، همیشه احتمال نشت داده، وجود دارد. البته، لیست اطلاعاتی که نباید با چت‌بات‌های هوش مصنوعی به اشتراک بگذارید فراتر از PII است.»

به هوش مصنوعی این اطلاعات را ندهید!

اطلاعات مالی

چت‌بات‌ها انسان‌گونه هستند و می‌توانند بسیار قانع‌کننده باشند، بنابراین ممکن است به‌راحتی توسط یک هوش مصنوعی فریب بخورید. استوارت می‌گوید: «شماره کارت اعتباری، جزئیات حساب بانکی و رمزهای عبور باید خصوصی نگه داشته شوند. اشتراک‌گذاری داده‌های مالی آنلاین شما را در معرض خطر کلاهبرداری، سرقت یا تقلب قرار می‌دهد اگر این اطلاعات فاش شود. به همان اندازه مهم است که اطلاعات ورود به سیستم خود مانند نام‌های کاربری، رمزهای عبور یا کدهای تأیید دو مرحله‌ای را به اشتراک نگذارید.»

بیشتر بخوانید:

کد خبر 888253

برچسب‌ها

پر بیننده‌ترین اخبار فناوری‌

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha