اطلاعاتی که نباید با چت جی پی تی در میان بگذارید!

آبان 19، 1404 - 16:00
 0  1
اطلاعاتی که نباید با چت جی پی تی در میان بگذارید!

تقریباً همه ما حداقل یک‌بار با چت جی پی تی مثل یک دوست، تراپیست یا دستیار قابل‌اعتماد صحبت کرده‌ایم؛ همین گفت‌وگوها کافی هستند تا این چت‌بات به اطلاعات مهم و حساس ما دسترسی پیدا کند. به‌همین دلیل است که از ChatGPT به‌‌عنوان «سیاه‌چاله حریم خصوصی افراد» هم یاد می‌شود. شرکت‌های توسعه‌دهنده هوش مصنوعی مثل OpenAI، از مکالمات ما برای آموزش مدل‌ها استفاده می‌کنند تا خروجی‌ها طبیعی‌تر، دقیق‌تر و معتبر باشند؛ اما بعضی از اطلاعات حساس وجود دارند که هرگز نباید با هوش مصنوعی در میان گذاشته شوند. در این مطلب بررسی می‌کنیم که دلیل این محافظه‌کاری‌ها چیست و دقیقاً چه اطلاعاتی را نباید به چت جی پی تی گفت!

چه مواردی را با چت جی پی تی مطرح نکنیم؟

اخیراً یکی از نویسندگان وال‌استریت ژورنال، در مقاله‌ای به 5 نوع اطلاعات مهم اشاره کرد که نباید با چت جی پی تی در میان گذاشت؛ آن 5 مورد را همراه با 2 مورد دیگر گردآوری کرده‌ایم تا متوجه شوید، چرا نباید بیش‌ازحد با ChatGPT گرم بگیریم:

چه چیزهایی را به چت جی پی تی نگوییم

۱. اطلاعات هویتی و شخصی

شاید پیش‌پااُفتاده به نظر برسد، اما در جریان گفت‌وگوهایتان با چت‌جی‌پی‌تی، درباره اطلاعات هویتی خودتان چیزی نگویید. شماره ملی، شماره گواهینامه یا گذرنامه، تاریخ تولد کامل، آدرس منزل یا شماره تلفن شخصی، اطلاعاتی هستند که نباید به چت‌جی‌پی‌تی بگویید. بطورکلی یکی از قواعد پرامپت نویسی برای ai، توجه به جزئیاتی است که علاوه‌بر دریافت پاسخ استاندارد، از درز اطلاعات حساس جلوگیری کرده و مخل امنیت انسان نیز نمی‌شود. با آموزش پرامپت نویسی و شناخت اطلاعات حساس، می‌توانید از حریم خصوصی خود حفاظت کنید.

دلیل این موضوع ساده است؛ هیچ تضمینی وجود ندارد که اطلاعات هویتی شما از گفت‌وگو با هوش مصنوعی حذف شوند. طبق گفته دکتر جنیفر کینگ (Jeniffer King)، استاد دانشگاه استنفورد، «وقتی اطلاعاتی را تایپ می‌کنید، در واقع مالکیت آن را از دست می‌دهید». به زبان ساده‌تر، آن اطلاعات دیگر فقط مال شما نیستند؛ بنابراین، در صورت نشت اطلاعات یا هک شدن سرورها، از آن‌ها سواستفاده می‌شود.

۲. نتایج و سوابق پرونده پزشکی

گاهی وسوسه می‌شویم که آزمایش‌های پزشکی را برای تحلیل به چت‌جی‌پی‌تی بدهیم یا از آن درباره بیماری خودمان سؤال بپرسیم. توجه کنید که ابزارهای هوش مصنوعی، تابع قوانین سخت‌گیرانه‌ای مثل قانون حفاظت از حریم خصوصی اطلاعات درمانی (HIPAA) نیستند. از طرفی، بعضی‌ها با کمک پرامپت های ممنوعه چت جی پی تی، قوانین را دور می‌زنند و مشاوره‌های پزشکی مختلفی دریافت می‌کنند؛ در نتیجه، ممکن است، اطلاعات پزشکی و سوابق بیماری‌تان در سرورها ذخیره شوند و محرمانه بودن آن‌ها به خطر بیفتد.

اگر مجبور هستید که درباره نتیجه آزمایش‌تان حتماً از ChatGPT سوال کنید، به توصیه دکتر جنیفر کینگ گوشی دهید. طبق توصیه دکتر کینگ، اطلاعات هویتی را ننویسید و فقط اطلاعات لازم (مثلاً عدد قند خون یا کلسترول) را وارد کنید؛ گاهی ممکن است، بدون اینکه خودتان بدانید، بخشی از اطلاعات شخصی شما ناخواسته در پاسخ‌های بعدی ظاهر شود.

۳. اطلاعات حساب‌های مالی

اطلاعات مالی و حسابداری، از حساس‌ترین اطلاعاتی هستند که هیچ‌وقت نباید با هوش مصنوعی در میان بگذارید. از دادن اطلاعات بانکی (مثل شماره کارت، CVV، رمز دوم یا شناسه حساب) به هوش مصنوعی خودداری کنید؛ چت‌جی‌پی‌تی امن است، اما دسترسی غیرمجاز به مرورگر یا موبایل شما می‌تواند، باعث لو رفتن محتوای چت و اطلاعات مالی شود. این هشدارها درباره همه ابزارهای هوش مصنوعی وجود دارند؛ بنابراین، قبل از استفاده، مطالب معتبر در مورد آموزش استفاده از ChatGPT را مطالعه کنید تا با نحوه حفظ حریم خصوصی در آن آشنا شوید.

۴. اطلاعات اختصاصی شرکت یا سازمان

اگر از چت‌جی‌پی‌تی برای انجام کارهای حرفه‌ای یا شرکتی استفاده می‌کنید، نهایت دقت را به خرج دهید. ارائه اطلاعات مشتریان، استراتژی‌های داخلی، نتایج مالی شرکت یا حتی کدهای منبع (Source Code) به هوش مصنوعی، پیامدهای بسیار خطرناکی دارد. خانم نیکول نگوین (Nicole Nguyen)، نویسنده مجله وال‌استریت ژورنال، در مقاله خود به یک مثال مهم اشاره کرده است؛ در این مقاله، به ماجرای شرکت سامسونگ در سال ۲۰۲۳ اشاره می‌شود که چند مهندس، کدهای محرمانه شرکت را در چت‌جی‌پی‌تی وارد کردند. متاسفانه، نشت اطلاعات سامسونگ در این فاجعه آن‌قدر زیاد بود که استفاده از این ابزار برای همه کارکنان ممنوع شد.

دلیل این ممنوعیت‌ها روشن است؛ اطلاعات و داده‌هایی که به چت‌جی‌پی‌تی می‌دهیم، برای آموزش مدل‌های آینده استفاده می‌شوند. در بعضی از شرایط خاص، اطلاعات مهم ما یا شرکت، به‌عنوان پاسخ در اختیار سایر کاربران قرار می‌گیرند. اگر هوش مصنوعی برای کار شما ضروری است، با خرید چت جی پی تی از نسخه‌های شرکتی یا اصطلاحاً Enterprise استفاده کنید؛ این اکانت‌ها دارای لایه‌های امنیتی و حریم خصوصی قوی‌تری هستند. به یاد داشته باشید که خرید اکانت‌های اشتراکی هوش مصنوعی یکی از خطرات اصلی برای درز پیدا کردن اطلاعات شما هستند! به همین دلیل سعی کنید اکانت های هوش مصنوعی خود را مستقیما از سایت رسمی Ai‌ها خریداری کنید.

۵. اطلاعات ورود و پسوردها

بسیاری از کاربران برای انتخاب نام کاربری یا رمز عبورشان از ChatGPT کمک می‌گیرند؛ بی‌احتیاطی اینجاست که این افراد، پیشنهادهای هوش مصنوعی را بدون تغییر دادن به‌عنوان پسورد را انتخاب می‌کنند. درمجموع، استفاده از اطلاعات ورود و واردکردن پسورد در هوش مصنوعی، یکی از بزرگ‌ترین اشتباهات ممکن است. فراموش نکنید که چت‌جی‌پی‌تی یا هیچ چت‌بات عمومی دیگری یک پسورد منیجر (Password Manager) مطمئن و استاندارد نیست.

واردکردن اطلاعات مهم مثل نام کاربری (Username)، پسورد، پین‌کُد یا پاسخ سوالات امنیتی در چت‌جی‌پی‌تی باعث دسترسی غیرمجاز به اکانت‌های شما می‌شود. هیچ تضمینی وجود ندارد که اطلاعات واردشده برای همیشه حذف شوند یا از هیچ‌وقت لو نروند.

اطلاعات حساسی که نباید به Ai داد

۶. اطلاعات محرمانه و اسناد کاری

همه ما مسئول حفاظت از اطلاعات محرمانه‌ای هستیم که به ما سپرده می‌شوند؛ این تعهد می‌تواند حرفه‌ای (مثل اطلاعات پزشکی یا اطلاعات وکیل نسبت به موکل خود) و شغلی (مثل اطلاعات کارمند و کارفرما) باشد. به‌اشتراک‌گذاری یادداشت‌های جلسات، صورت‌جلسات داخلی شرکت، قراردادهای تجاری یا فایل‌های مالی در چت‌جی‌پی‌تی، اشتباه محض است؛ این کار، محرمانه بودن اطلاعات تجاری را از بین می‌برد و از شما یک کارمند بی‌تعهد و بی‌مسئولیت می‌سازد.

۷. مالکیت فکری و ایده‌های خلاقانه

منظور از مالکیت فکری یعنی حق قانونی برای ایده‌ها، اختراعات، آثار هنری و اطلاعات تجاری که با ذهن و خلاقیت انسان ساخته شده‌اند؛ نه چیزهای فیزیکی مثل خانه یا ماشین. واردکردن این اطلاعات مهم و ارزشمند در چت‌جی‌پی‌تی می‌تواند باعث از دست رفتن مالکیت، کپی‌برداری یا استفاده غیرمجاز از آن‌ها شود.

اگر به دنبال دریافت مشاوره درباره پروژه‌های خاص یا ایده‌های جدید هستید، توضیحات کلی ارائه دهید؛ همچنین، از ارائه جزئیات فنی یا مستندات اختصاصی به چت‌جی‌پی‌تی خودداری کنید. اگر چت‌جی‌پی‌تی، ایده را به دیگران نشان دهد یا از آن برای آموزش مدل‌های بعدی استفاده شود، آن ایده دیگر «مال شما» نیست.

راز هایی که نباید به چت جی پی تی گفت

راه های حفظ حریم خصوصی هنگام استفاده از هوش مصنوعی

خوشبختانه، چند راهکار کاربردی هم برای افزایش حریم خصوصی کاربران در هنگام کار با ابزارهای هوش مصنوعی وجود دارند؛ ازجمله:

  • سابقه گفت‌وگوها را حذف کنید: هرچند وقت یک‌بار، تاریخچه چت‌هایتان را با چت‌جی‌پی‌تی و سایر ابزارها پاک کنید. چت‌های حذف‌شده معمولاً طی ۳۰ روز، کاملاً از سرورهای هوش مصنوعی پاک می‌شوند.
  • از حالت موقت یا ناشناس استفاده کنید: در ChatGPT قابلیتی به نام «Temporary Chat» وجود دارد که مشابه حالت ناشناس مرورگر (Incognito Mode) است؛ با فعالسازی آن، از ذخیره شدن یا استفاده از محتوای گفت‌وگو برای آموزش مدل جلوگیری کنید.
  • از اتصال حساب‌های کاربری خودداری کنید: تاحدامکان، جیمیل یا اکانت مایکروسافت‌تان را به چت‌بات‌ها وصل نکنید؛ این کار باعث اشتراک‌گذاری اطلاعات مهم در میان پلتفرم‌های مختلف می‌شود. بهتر است که برای هر ابزار هوش مصنوعی، یک اکانت مستقل و بدون دسترسی به اطلاعات شخصی بسازید.

در کنار این موارد، همیشه یادتان باشد که حریم خصوصی در فضای دیجیتال، یک مسئولیت دوطرفه است؛ هم شرکت‌ها باید به حفظ آن پایبند باشند و هم شما.

از هوش مصنوعی کمک بگیرید، ولی محتاط باشید!

اگر درست و آگاهانه از هوش مصنوعی استفاده کنید، یکی از بهترین دستیارهای زندگی روزمره و کاری را در اختیار می‌گیرید. همان‌طور که مطالعه کردید، بعضی از اطلاعات مهم را نباید در اختیار چت‌بات‌ها قرار دهید. یادتان نرود که محافظه‌کاری در این موضوع خاص، ضروری است؛ بنابراین، با چند اقدام ساده، امنیت داده‌های خود را افزایش دهید. چت‌جی‌پی‌تی و ابزارهای مشابه هوش مصنوعی، هنوز «ابزار» هستند؛ نه دوستان صمیمی یا مشاوران شخصی ما. در استفاده از هوش مصنوعی همیشه احتیاط را در نظر بگیرید و اطلاعاتی را که نباید در جایی ثبت شوند، تایپ نکنید.

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0