اطلاعاتی که نباید با چت جی پی تی در میان بگذارید!
تقریباً همه ما حداقل یکبار با چت جی پی تی مثل یک دوست، تراپیست یا دستیار قابلاعتماد صحبت کردهایم؛ همین گفتوگوها کافی هستند تا این چتبات به اطلاعات مهم و حساس ما دسترسی پیدا کند. بههمین دلیل است که از ChatGPT بهعنوان «سیاهچاله حریم خصوصی افراد» هم یاد میشود. شرکتهای توسعهدهنده هوش مصنوعی مثل OpenAI، از مکالمات ما برای آموزش مدلها استفاده میکنند تا خروجیها طبیعیتر، دقیقتر و معتبر باشند؛ اما بعضی از اطلاعات حساس وجود دارند که هرگز نباید با هوش مصنوعی در میان گذاشته شوند. در این مطلب بررسی میکنیم که دلیل این محافظهکاریها چیست و دقیقاً چه اطلاعاتی را نباید به چت جی پی تی گفت!
چه مواردی را با چت جی پی تی مطرح نکنیم؟
اخیراً یکی از نویسندگان والاستریت ژورنال، در مقالهای به 5 نوع اطلاعات مهم اشاره کرد که نباید با چت جی پی تی در میان گذاشت؛ آن 5 مورد را همراه با 2 مورد دیگر گردآوری کردهایم تا متوجه شوید، چرا نباید بیشازحد با ChatGPT گرم بگیریم:
۱. اطلاعات هویتی و شخصی
شاید پیشپااُفتاده به نظر برسد، اما در جریان گفتوگوهایتان با چتجیپیتی، درباره اطلاعات هویتی خودتان چیزی نگویید. شماره ملی، شماره گواهینامه یا گذرنامه، تاریخ تولد کامل، آدرس منزل یا شماره تلفن شخصی، اطلاعاتی هستند که نباید به چتجیپیتی بگویید. بطورکلی یکی از قواعد پرامپت نویسی برای ai، توجه به جزئیاتی است که علاوهبر دریافت پاسخ استاندارد، از درز اطلاعات حساس جلوگیری کرده و مخل امنیت انسان نیز نمیشود. با آموزش پرامپت نویسی و شناخت اطلاعات حساس، میتوانید از حریم خصوصی خود حفاظت کنید.
دلیل این موضوع ساده است؛ هیچ تضمینی وجود ندارد که اطلاعات هویتی شما از گفتوگو با هوش مصنوعی حذف شوند. طبق گفته دکتر جنیفر کینگ (Jeniffer King)، استاد دانشگاه استنفورد، «وقتی اطلاعاتی را تایپ میکنید، در واقع مالکیت آن را از دست میدهید». به زبان سادهتر، آن اطلاعات دیگر فقط مال شما نیستند؛ بنابراین، در صورت نشت اطلاعات یا هک شدن سرورها، از آنها سواستفاده میشود.
۲. نتایج و سوابق پرونده پزشکی
گاهی وسوسه میشویم که آزمایشهای پزشکی را برای تحلیل به چتجیپیتی بدهیم یا از آن درباره بیماری خودمان سؤال بپرسیم. توجه کنید که ابزارهای هوش مصنوعی، تابع قوانین سختگیرانهای مثل قانون حفاظت از حریم خصوصی اطلاعات درمانی (HIPAA) نیستند. از طرفی، بعضیها با کمک پرامپت های ممنوعه چت جی پی تی، قوانین را دور میزنند و مشاورههای پزشکی مختلفی دریافت میکنند؛ در نتیجه، ممکن است، اطلاعات پزشکی و سوابق بیماریتان در سرورها ذخیره شوند و محرمانه بودن آنها به خطر بیفتد.
اگر مجبور هستید که درباره نتیجه آزمایشتان حتماً از ChatGPT سوال کنید، به توصیه دکتر جنیفر کینگ گوشی دهید. طبق توصیه دکتر کینگ، اطلاعات هویتی را ننویسید و فقط اطلاعات لازم (مثلاً عدد قند خون یا کلسترول) را وارد کنید؛ گاهی ممکن است، بدون اینکه خودتان بدانید، بخشی از اطلاعات شخصی شما ناخواسته در پاسخهای بعدی ظاهر شود.
۳. اطلاعات حسابهای مالی
اطلاعات مالی و حسابداری، از حساسترین اطلاعاتی هستند که هیچوقت نباید با هوش مصنوعی در میان بگذارید. از دادن اطلاعات بانکی (مثل شماره کارت، CVV، رمز دوم یا شناسه حساب) به هوش مصنوعی خودداری کنید؛ چتجیپیتی امن است، اما دسترسی غیرمجاز به مرورگر یا موبایل شما میتواند، باعث لو رفتن محتوای چت و اطلاعات مالی شود. این هشدارها درباره همه ابزارهای هوش مصنوعی وجود دارند؛ بنابراین، قبل از استفاده، مطالب معتبر در مورد آموزش استفاده از ChatGPT را مطالعه کنید تا با نحوه حفظ حریم خصوصی در آن آشنا شوید.
۴. اطلاعات اختصاصی شرکت یا سازمان
اگر از چتجیپیتی برای انجام کارهای حرفهای یا شرکتی استفاده میکنید، نهایت دقت را به خرج دهید. ارائه اطلاعات مشتریان، استراتژیهای داخلی، نتایج مالی شرکت یا حتی کدهای منبع (Source Code) به هوش مصنوعی، پیامدهای بسیار خطرناکی دارد. خانم نیکول نگوین (Nicole Nguyen)، نویسنده مجله والاستریت ژورنال، در مقاله خود به یک مثال مهم اشاره کرده است؛ در این مقاله، به ماجرای شرکت سامسونگ در سال ۲۰۲۳ اشاره میشود که چند مهندس، کدهای محرمانه شرکت را در چتجیپیتی وارد کردند. متاسفانه، نشت اطلاعات سامسونگ در این فاجعه آنقدر زیاد بود که استفاده از این ابزار برای همه کارکنان ممنوع شد.
دلیل این ممنوعیتها روشن است؛ اطلاعات و دادههایی که به چتجیپیتی میدهیم، برای آموزش مدلهای آینده استفاده میشوند. در بعضی از شرایط خاص، اطلاعات مهم ما یا شرکت، بهعنوان پاسخ در اختیار سایر کاربران قرار میگیرند. اگر هوش مصنوعی برای کار شما ضروری است، با خرید چت جی پی تی از نسخههای شرکتی یا اصطلاحاً Enterprise استفاده کنید؛ این اکانتها دارای لایههای امنیتی و حریم خصوصی قویتری هستند. به یاد داشته باشید که خرید اکانتهای اشتراکی هوش مصنوعی یکی از خطرات اصلی برای درز پیدا کردن اطلاعات شما هستند! به همین دلیل سعی کنید اکانت های هوش مصنوعی خود را مستقیما از سایت رسمی Aiها خریداری کنید.
۵. اطلاعات ورود و پسوردها
بسیاری از کاربران برای انتخاب نام کاربری یا رمز عبورشان از ChatGPT کمک میگیرند؛ بیاحتیاطی اینجاست که این افراد، پیشنهادهای هوش مصنوعی را بدون تغییر دادن بهعنوان پسورد را انتخاب میکنند. درمجموع، استفاده از اطلاعات ورود و واردکردن پسورد در هوش مصنوعی، یکی از بزرگترین اشتباهات ممکن است. فراموش نکنید که چتجیپیتی یا هیچ چتبات عمومی دیگری یک پسورد منیجر (Password Manager) مطمئن و استاندارد نیست.
واردکردن اطلاعات مهم مثل نام کاربری (Username)، پسورد، پینکُد یا پاسخ سوالات امنیتی در چتجیپیتی باعث دسترسی غیرمجاز به اکانتهای شما میشود. هیچ تضمینی وجود ندارد که اطلاعات واردشده برای همیشه حذف شوند یا از هیچوقت لو نروند.
۶. اطلاعات محرمانه و اسناد کاری
همه ما مسئول حفاظت از اطلاعات محرمانهای هستیم که به ما سپرده میشوند؛ این تعهد میتواند حرفهای (مثل اطلاعات پزشکی یا اطلاعات وکیل نسبت به موکل خود) و شغلی (مثل اطلاعات کارمند و کارفرما) باشد. بهاشتراکگذاری یادداشتهای جلسات، صورتجلسات داخلی شرکت، قراردادهای تجاری یا فایلهای مالی در چتجیپیتی، اشتباه محض است؛ این کار، محرمانه بودن اطلاعات تجاری را از بین میبرد و از شما یک کارمند بیتعهد و بیمسئولیت میسازد.
۷. مالکیت فکری و ایدههای خلاقانه
منظور از مالکیت فکری یعنی حق قانونی برای ایدهها، اختراعات، آثار هنری و اطلاعات تجاری که با ذهن و خلاقیت انسان ساخته شدهاند؛ نه چیزهای فیزیکی مثل خانه یا ماشین. واردکردن این اطلاعات مهم و ارزشمند در چتجیپیتی میتواند باعث از دست رفتن مالکیت، کپیبرداری یا استفاده غیرمجاز از آنها شود.
اگر به دنبال دریافت مشاوره درباره پروژههای خاص یا ایدههای جدید هستید، توضیحات کلی ارائه دهید؛ همچنین، از ارائه جزئیات فنی یا مستندات اختصاصی به چتجیپیتی خودداری کنید. اگر چتجیپیتی، ایده را به دیگران نشان دهد یا از آن برای آموزش مدلهای بعدی استفاده شود، آن ایده دیگر «مال شما» نیست.
راه های حفظ حریم خصوصی هنگام استفاده از هوش مصنوعی
خوشبختانه، چند راهکار کاربردی هم برای افزایش حریم خصوصی کاربران در هنگام کار با ابزارهای هوش مصنوعی وجود دارند؛ ازجمله:
- سابقه گفتوگوها را حذف کنید: هرچند وقت یکبار، تاریخچه چتهایتان را با چتجیپیتی و سایر ابزارها پاک کنید. چتهای حذفشده معمولاً طی ۳۰ روز، کاملاً از سرورهای هوش مصنوعی پاک میشوند.
- از حالت موقت یا ناشناس استفاده کنید: در ChatGPT قابلیتی به نام «Temporary Chat» وجود دارد که مشابه حالت ناشناس مرورگر (Incognito Mode) است؛ با فعالسازی آن، از ذخیره شدن یا استفاده از محتوای گفتوگو برای آموزش مدل جلوگیری کنید.
- از اتصال حسابهای کاربری خودداری کنید: تاحدامکان، جیمیل یا اکانت مایکروسافتتان را به چتباتها وصل نکنید؛ این کار باعث اشتراکگذاری اطلاعات مهم در میان پلتفرمهای مختلف میشود. بهتر است که برای هر ابزار هوش مصنوعی، یک اکانت مستقل و بدون دسترسی به اطلاعات شخصی بسازید.
در کنار این موارد، همیشه یادتان باشد که حریم خصوصی در فضای دیجیتال، یک مسئولیت دوطرفه است؛ هم شرکتها باید به حفظ آن پایبند باشند و هم شما.
از هوش مصنوعی کمک بگیرید، ولی محتاط باشید!
اگر درست و آگاهانه از هوش مصنوعی استفاده کنید، یکی از بهترین دستیارهای زندگی روزمره و کاری را در اختیار میگیرید. همانطور که مطالعه کردید، بعضی از اطلاعات مهم را نباید در اختیار چتباتها قرار دهید. یادتان نرود که محافظهکاری در این موضوع خاص، ضروری است؛ بنابراین، با چند اقدام ساده، امنیت دادههای خود را افزایش دهید. چتجیپیتی و ابزارهای مشابه هوش مصنوعی، هنوز «ابزار» هستند؛ نه دوستان صمیمی یا مشاوران شخصی ما. در استفاده از هوش مصنوعی همیشه احتیاط را در نظر بگیرید و اطلاعاتی را که نباید در جایی ثبت شوند، تایپ نکنید.
واکنش شما چیست؟
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0