هرگز این اطلاعات را با ChatGPT و سایر چت‌بات‌ها به اشتراک نگذارید.

chatbot 5

هرگز این اطلاعات را با ChatGPT و سایر چت‌بات‌ها به اشتراک نگذارید.

چت‌بات‌ها ابزارهای قدرتمندی در زندگی روزمره ما هستند، اما به اشتراک‌گذاری برخی اطلاعات حساس با آن‌ها می‌تواند حریم خصوصی‌تان را به خطر بیندازد. در دنیای امروز، کاربران به چت‌بات‌های هوش مصنوعی برای انجام کارهای مختلفی از جمله مشاوره‌های روانشناسی، نوشتن ایمیل‌های حرفه‌ای و حتی خلق تصاویر به سبک استودیو جیبلی روی می‌آورند.

با اینکه نقش ChatGPT و دیگر چت‌بات‌های هوش مصنوعی مانند دیپ سیک، گراک و جمنای در زندگی ما روز به روز پررنگ‌تر می‌شود و کارهایمان را آسان‌تر می‌کند، نگرانی‌ها درباره حفظ حریم خصوصی نیز به طور فزاینده‌ای افزایش یافته است.

در ادامه این مقاله، به بررسی پنج موضوعی خواهیم پرداخت که هرگز نباید با ChatGPT یا چت‌بات‌های مشابه به اشتراک بگذاریم.

هرگز این اطلاعات را با ChatGPT و سایر چت‌بات‌ها به اشتراک نگذارید.

با توجه به رشد سریع و گسترده چت‌بات‌های هوش مصنوعی، ممکن است کاربران هنوز به‌طور کامل از اطلاعاتی که نباید با این ابزارها به اشتراک بگذارند، آگاه نباشند. اما واقعیت این است که هر چیزی که با چت‌بات‌ها به اشتراک می‌گذاریم، دو خطر بالقوه را به همراه دارد:

  • اطلاعات ما ممکن است برای آموزش مدل‌های هوش مصنوعی به کار گرفته شوند
  • مدل هوش مصنوعی ممکن است اطلاعات ما را در پاسخ به بقیه‌ی کاربران، نمایش دهد

 

جنیفر کینگ، پژوهشگر مؤسسه هوش مصنوعی انسان‌محور دانشگاه استنفورد، بیان می‌کند: «زمانی که متنی را در یک چت‌بات وارد کرده و ارسال می‌کنید، عملاً مالکیت آن را از دست می‌دهید.» از این رو، یادگیری روش‌های صحیح استفاده از چت‌بات‌های هوش مصنوعی به ما این امکان را می‌دهد که تعاملات بهتری و ایمن‌تری داشته باشیم.

 

۱. اطلاعات هویتی

بدون شک، اطلاعات شخصی مانند کد ملی، آدرس محل سکونت یا شماره تلفن، مواردی نیستند که کاربران تمایل داشته باشند به‌طور عمومی در فضای مجازی به اشتراک بگذارند. بنابراین، توصیه می‌شود هرگز اطلاعات هویتی خود یا دیگران را با چت‌بات‌ها در میان نگذارید. هرچند چت‌بات‌ها بسیاری از این اطلاعات را حذف یا سانسور می‌کنند، اما بهتر است خودمان نیز احتیاط کنیم.

به گفته سخنگوی شرکت OpenAI، «مدل‌های هوش مصنوعی برای یادگیری درباره مسائل مختلف جهان طراحی شده‌اند، نه افراد حقیقی؛ بنابراین جمع‌آوری اطلاعات شخصی باید به حداقل برسد.»

 

۲. اطلاعات پزشکی

شاید شما نیز از چت‌بات‌های هوش مصنوعی برای تفسیر نتایج آزمایش خون یا MRI استفاده کرده‌اید. هرچند این چت‌بات‌ها می‌توانند در این زمینه به شما کمک کنند، اما به دلیل احتمال ذخیره‌سازی اطلاعات و به اشتراک‌گذاری آن‌ها با دیگر کاربران، بهتر است این کار را به پزشک خود واگذار کنید.

با این حال، می‌توانید نتایج آزمایش‌ها را به گونه‌ای مطرح کنید که اطلاعات شخصی شما محفوظ بماند. به عنوان مثال، به جای بارگذاری برگه آزمایش، می‌توانید از چت‌بات بپرسید: «آیا قند خون ناشتای ۹۰ برای یک مرد یا زن بین ۳۰ تا ۳۵ سال مناسب است؟» و سپس پاسخ را با نتایج آزمایش خود مقایسه کنید.

هرگز این اطلاعات را با ChatGPT و سایر چت‌بات‌ها به اشتراک نگذارید.

۳. اطلاعات محرمانه‌ی کاری

افراد شاغل با حجم زیادی از داده‌ها مانند اسناد داخلی شرکت‌ها، اطلاعات مشتریان، صورت‌جلسات و موارد دیگر سر و کار دارند. ممکن است بخواهند برای مرتب‌سازی یا ویرایش این اطلاعات از چت‌بات‌های هوش مصنوعی استفاده کنند، اما این کار به هیچ وجه توصیه نمی‌شود. زیرا می‌تواند حریم خصوصی افراد و سازمان‌ها را نقض کند و عواقب قانونی جدی به همراه داشته باشد.

 

۴. نام کاربری و رمز عبور

هنگام گفتگو با یک چت‌بات، هرگز نباید رمزهای عبور یا کدهای تأیید دو مرحله‌ای (2FA) حساب‌های کاربری خود را وارد کنید. چت‌بات‌های معروف مانند ChatGPT ممکن است برای ارائه کمک بهتر، اطلاعاتی را ذخیره کنند و در آینده آن‌ها را به کاربر دیگری ارسال کنند. در نتیجه، این داده‌ها می‌توانند در صورت دسترسی شخص دیگری به حسابتان، مورد سوءاستفاده قرار گیرند.

هرگز این اطلاعات را با ChatGPT و سایر چت‌بات‌ها به اشتراک نگذارید.

۵. داده‌های مالی

شاید به نظر برسد که واضح است که هیچ‌کس اطلاعات مالی شخصی‌اش را با هوش مصنوعی به اشتراک نمی‌گذارد، اما متأسفانه گاهی کاربران به‌طور ناخواسته هنگام استفاده از چت‌بات‌ها برای خلاصه‌سازی اسناد مالی یا دریافت مشاوره مالی، اطلاعات کارت بانکی خود را فاش می‌کنند.

باید به این نکته توجه داشته باشید که هرگز نباید اطلاعاتی مانند شماره کارت یا رمز دوم را برای مدل‌های هوش مصنوعی ارسال کنید، زیرا این کار می‌تواند زمینه‌ساز کلاهبرداری، سرقت هویت و حملات فیشینگ شود.

 

چت‌بات‌های هوش مصنوعی اگرچه ابزارهای قدرتمندی هستند، اما نمی‌توانند به‌عنوان دفترچه خاطرات، درمانگر یا صندوق اسرار ما عمل کنند؛ زیرا هر یک از آن‌ها توسط شرکتی توسعه یافته‌اند و ممکن است اطلاعات ما را ذخیره کرده یا به طرق دیگر افشا کنند. بنابراین، این وظیفه ماست که از داده‌های مهم خود محافظت کنیم.

هرگز این اطلاعات را با ChatGPT و سایر چت‌بات‌ها به اشتراک نگذارید.

در پایان مکالمه، بهتر است گفت‌وگوی خود با چت‌بات را حذف کنید.

نکته‌ای وجود دارد که ممکن است کمی شما را در مورد حفاظت از داده‌هایتان در تعامل با هوش مصنوعی آسوده خاطر کند. جیسون کلینتون، مدیر ارشد امنیت اطلاعات در شرکت Anthropic، بیان می‌کند: «شرکت‌ها معمولاً اطلاعات حذف‌شده در چت‌بات‌ها را پس از ۳۰ روز به‌طور کامل از بین می‌برند تا در جایی ذخیره نشود.» بنابراین، توصیه می‌شود که در پایان گفت‌وگو، مکالمه‌تان با چت‌بات را پاک کنید.

Hossein Kardan
ارسال دیدگاه