چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری كنیم؟

نگران نباشید، می‌توانید جلوی دسترسی ابزارهای هوش مصنوعی به داده‌های شخصی خود را بگیرید تا از آن‌ها برای آموزش‌های مدل‌های هوش مصنوعی استفاده نشود.

چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری كنیم؟آموزشفناوریهوش مصنوعیچهارشنبه ۱۲ اردیبهشت ۱۴۰۳ - ۱۲:۳۰مطالعه 7 دقیقهمجتبی بوالحسنیتبلیغاتتبلیغاتتبلیغاتنگران نباشید، می‌توانید جلوی دسترسی ابزارهای هوش مصنوعی به داده‌های شخصی خود را بگیرید تا از آن‌ها برای آموزش‌های مدل‌های هوش مصنوعی استفاده نشود .

تبلیغاتهر محتوایی كه در سطح اینترنت مشاهده می‌كنید، به‌احتمال زیاد جمع‌آوری شده و برای آموزش نسل كنونی هوش مصنوعی مولد مورد استفاده قرار گرفته است. مدل‌های زبان بزرگ مثل ChatGPT و ابزار‌های تولیدكننده‌ی تصویر با انبوهی از داده‌های ما تغذیه می‌شوند .

حتی اگر این داده‌ها برای ساخت چت‌بات به‌كار نروند، می‌توانند در ویژگی‌های دیگر یادگیری ماشین استفاده شوند.شركت‌های فناوری برای جمع‌آوری داده‌هایی كه به‌گفته خودشان برای خلق هوش مصنوعی مولد ضروری هستند، سرتاسر وب را با بی‌توجهی به حقوق مؤلفان، قوانین كپی‌رایت و حریم خصوصی كاربران، مورد استفاده قرار داده‌اند .

شركت‌هایی هم كه انبوهی از اطلاعات كاربران را در اختیار دارند، به‌دنبال سهمی از سود صنعت هوش مصنوعی هستند.اگر شما هم نگران هستید كه داده‌‌هایتان مورد استفاده‌ی هوش مصنوعی قرار بگیرد، ما در این مقاله به‌بررسی راهكارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی می‌پردازیم .

فهرست مطالبمحدودیت‌های جلوگیری از دسترسی هوش مصنوعی به داده‌هاروش جلوگیری از دسترسی ابزارهای هوش مصنوعی به داده‌هاگوگل جمنایChatGPT و DALL-EPerplexityادوبیوردپرسGrammarlyQuoraTumblrاسلكوب‌سایت اختصاصیكپی لینكمحدودیت‌های جلوگیری از دسترسی هوش مصنوعی به داده‌هاپیش‌از آن‌كه به روش‌های جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقع‌بینانه نگه‌داریم .

بسیاری از شركت‌های توسعه‌دهنده‌ی هوش مصنوعی از مدت‌ها قبل اقدام به جمع‌آوری گسترده‌ی داده‌های وب كرده‌اند؛ بنابر این، احتمالاً هر آنچه كه تا امروز منتشر كرده‌اید، هم‌اكنون در سیستم‌های آن‌ها وجود دارد .

این شركت‌ها درباره‌ی اطلاعاتی كه استخراج یا خریداری كرده‌اند، شفاف عمل نمی‌كنند و اطلاعات ما در این زمینه بسیار مبهم است.شركت‌ها می‌توانند فرایند انصراف از استفاده‌ی داده‌ها برای آموزش هوش مصنوعی را پیچیده كنند .

بسیاری از افراد درباره‌ی مجوز‌هایی كه پذیرفته‌اند یا نحوه‌ی به‌كارگیری داده‌ها، دید روشنی ندارند. این موضوع مربوط‌به قبل‌از زمانی است كه به قوانین مختلف، مانند حمایت از حقوق مالكیت فكری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود .

فیسبوك، گوگل و شركت‌های دیگر، در اسناد مربوط‌به حریم خصوصی خود ذكر كرده‌اند كه شاید از داده‌های شما برای آموزش هوش مصنوعی استفاده كنند.فهرست زیر فقط شامل شركت‌هایی می‌شود كه درحال‌حاضر راهكاری برای منع دسترسی آن‌ها به داده‌های شخصی كاربران برای آموزش مدل‌های هوش مصنوعی ارائه می‌دهند .

كپی لینكروش جلوگیری از دسترسی ابزارهای هوش مصنوعی به داده‌هاذخیره‌سازی فایل‌ها در سرویس‌های ابری، مزایای زیادی دارد. اما این فایل‌ها می‌توانند برای مقاصد دیگر نیز مورد استفاده قرار بگیرند. براساس اسناد شركت‌هایی مانند ادوبی و آمازون، داده‌های ذخیره‌شده در فضای ابری آن‌ها، می‌تواند برای آموزش الگوریتم‌های یادگیری ماشین به‌كار رود .

كپی لینكگوگل جمنایاگر از چت‌بات گوگل جمنای (Gemini) استفاده می‌كنید، باید بدانید كارشناسان انسانی برخی مكالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی می‌كنند. به‌هر حال، می‌توانید این دسترسی را لغو كنید .

بدین‌منظور جمنای را در مرورگر خود باز كرده، روی بخش Activity كلیك و سپس از منوی كشویی Turn Off را انتخاب كنید. در این قسمت، می‌توانید صرفاً فعالیت جمنای را غیرفعال كنید و یا با انتخاب گزینه‌ی Delete data، هم دسترسی را لغو كرده و هم اطلاعات مكالمات گذشته را پاك كنید .

نكته‌ی مهم اینكه با غیرفعال‌سازی دسترسی جمنای به داده‌های شخصی خود، مكالمات آتی شما دیگر برای بازبینی دردسترس نخواهد بود، اما اطلاعات مكالمات قبلی كه برای بررسی انتخاب شده‌اند، همچنان تا سه سال نزد گوگل باقی خواهند ماند .

كپی لینكChatGPT و DALL-Eهنگام استفاده از چت‌بات‌ها، ناخواسته اطلاعات شخصی زیادی را فاش می‌كنیم. OpenAI، به‌عنوان توسعه‌دهنده‌ی چت‌بات محبوب ChatGPT، به كاربران اختیاراتی برای كنترل داده‌هایشان می‌دهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدل‌های هوش مصنوعی آینده می‌شود .

طبق صفحات راهنمای OpenAI، كاربران وب ChatGPT كه حساب كاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینه‌ی Improve the model for everyone را غیرفعال كنند. اگر حساب كاربری دارید و ازطریق مرورگر وب وارد شده‌اید، باید به بخشChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینه‌ی Chat History & Training را خاموش كنید .

درصورتی‌كه از اپلیكیشن‌های موبایل ChatGPT استفاده می‌كنید، به Settings مراجعه كرده و Data Controls را انتخاب كنید و درنهایت گزینه‌ی Chat History & Training را خاموش كنید.صفحات پشتیبانی OpenAI هشدار می‌دهند كه تغییر تنظیمات دسترسی به داده‌های شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاه‌های شما همگام‌سازی نمی‌شود؛ بنابراین، باید اینكار را در هر جایی كه از ChatGPT استفاده می‌كنید، انجام دهید .

فعالیت‌های OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است كه به شما امكان می‌دهد با ارسال آن، تصاویر مورد نظر خود را از مجموعه داده‌های آموزشی آینده حذف كنید .

در این فرم باید نام، ایمیل، مالكیت حق‌نشر تصویر، جزئیات تصویر و اصل تصویر را آپلود كنید. OpenAI همچنین می‌گوید اگر حجم زیادی از تصاویر را به‌صورت آنلاین میزبانی می‌كنید كه نمی‌خواهید برای آموزش داده‌ها استفاده شوند، شاید اضافه‌كردن GPTBot به فایل robots .

txt وب‌سایت محل میزبانی تصاویر، روش كارآمدتری باشد.كپی لینكPerplexityPerplexity استارتاپی است كه با استفاده از هوش مصنوعی در جست‌وجوی وب و یافتن پاسخ سؤالات به كاربران كمك می‌كند. این ابزار مثل سایر نرم‌افزارهای مشابه، به‌صورت پیش‌فرض رضایت شما برای استفاده از تعاملات و داده‌هایتان را در جهت بهبود هوش مصنوعی خود دریافت می‌كند .

برای غیرفعال‌كردن این مورد، روی نام كاربری خود كلیك كنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.كپی لینكادوبیاگر از حساب كاربری شخصی ادوبی استفاده می‌كنید، غیرفعال‌كردن این قابلیت به‌سادگی امكان‌پذیر است .

بدین‌منظور باید در صفحه‌ی حریم خصوصی ادوبی به بخش Content analysis بروید و كلید مربوطه را خاموش كنید. برای حساب‌های تجاری یا آموزشی، این امكان به‌صورت مجزا برای تك‌تك كاربران وجود ندارد و برای غیرفعال‌سازی آن باید با مدیر سیستم تماس بگیرید .

كپی لینكوردپرسوردپرس گزینه‌ای برای جلوگیری از اشتراك‌گذاری داده‌ها با سرویس‌های شخص ثالث دارد. برای فعال كردن این قابلیت، در پنل مدیریت وب‌سایت، روی Settings و بعد از آن General و سپس Privacy كلیك كرده و در نهایت تیك گزینه‌ی Prevent third-party sharing را بزنید .

سخنگوی Automattic می‌گوید: «ما درحال همكاری با خزنده‌های وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای كاربران را بگیریم.»كپی لینكGrammarlyدرحال حاضر، كاربران عادی گرمرلی (Grammarly) امكان لغو استفاده از داده‌هایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند .

این امكان فقط برای حساب‌های تجاری (Business Account) دردسترس است كه به‌صورت خودكار قابل مدیریت بوده و نیازی به درخواست مستقیم كاربر ندارد. مقالات مرتبط:نبرد بینگ چت، بارد و چت‌جی‌پی‌تی؛ برنده كدام است؟۶ دلیل كه نباید كوركورانه به هوش مصنوعی اعتماد كنیدبرای لغو دسترسی گرمرلی در حساب‌های تجاری، به تنظیمات حساب كاربری (Account Settings) مراجعه، روی تب Data Settings كلیك و سپس گزینه‌ی Product Improvement & Training را غیرفعال كنید .

همچنین، حساب‌های تجاری تحت مدیریت مانند حساب‌های آموزشی و حساب‌های خریداری‌شده ازطریق نماینده‌ی فروش گرمرلی، به‌صورت خودكار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.كپی لینكQuoraQuora ادعا می‌كند درحال‌حاضر از پاسخ‌ها، پست‌ها یا نظرات كاربران برای آموزش هوش مصنوعی استفاده نمی‌كند .

این شركت همچنین هیچ‌گونه داده‌ی كاربری را برای آموزش هوش مصنوعی به‌فروش نمی‌رساند. به‌هر حال، Quora همچنان گزینه‌ای برای انصراف از این موضوع در نظر گرفته است. برای اینكار، به صفحه‌ی Settings بروید، روی Privacy كلیك و سپس Allow large language models to be trained on your content را غیرفعال كنید .

به‌نوشته‌ی WIRED، امكان دارد Quora همچنان از برخی پست‌های خاص برای آموزش مدل‌های زبان بزرگ (LLM) استفاده كند. صفحات راهنمای این شركت توضیح می‌دهند درصورتی‌كه به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورد استفاده قرار گیرد .

این شركت اشاره می‌كند كه احتمال استخراج داده‌ها ازطرف شركت‌های متفرقه نیز وجود دارد.كپی لینكTumblrشركت Automattic، مالك وب‌سایت‌های Tumblr و WordPress.com، اعلام كرده كه با همكاری شركت‌های هوش مصنوعی قصد دارد از مجموعه داده‌های عظیم و منحصربه‌فرد محتوای منتشر شده در پلتفرم‌های خود برای آموزش هوش مصنوعی استفاده كند .

سخنگوی این شركت تأكید كرده است كه ایمیل‌های كاربران و محتوای خصوصی شامل این همكاری نخواهد شد.درصورتی‌كه در Tumblr وبلاگ شخصی دارید، می‌توانید با مراجعه به Settings، انتخاب وبلاگ، كلیك روی آیكون چرخ‌دنده، رفتن به بخش Visibility و فعال‌كردن گزینه‌ی Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید .

همچنین بر اساس صفحات پشتیبانی Tumblr، پست‌های صریح، وبلاگ‌های حذف‌شده، و وبلاگ‌های دارای رمزعبور یا خصوصی به‌هیچ‌وجه با شركت‌های دیگر به اشتراك گذاشته نمی‌شوند.كپی لینكاسلكشاید برایتان عجیب باشد، اما حتی همان پیام‌های رد و بدل شده‌ی به‌ظاهر بی‌اهمیت در اسلك محل كارتان هم ممكن است برای آموزش مدل‌های این پلتفرم استفاده شوند .

براساس گفته‌ی معاون بخش محصول اسلك، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائه‌ی قابلیت‌هایی مثل پیشنهاد كانال و ایموجی استفاده می‌كند. اگرچه اسلك از داده‌های مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمی‌كند، اما می‌تواند از تعاملات شما برای بهبود قابلیت‌های یادگیری ماشینی نرم‌افزار بهره ببرد .

در صورتی‌كه از حساب سازمانی اسلك استفاده می‌كنید، امكان انصراف از این فرآیند وجود ندارد.تنها راه برای لغو اشتراك اسلك، ارسال ایمیل ازطرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود .

اسلك هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراك ارائه نمی‌دهد، اما پس‌از تكمیل آن باید ایمیل تأیید برای شما ارسال كند.كپی لینكوب‌سایت اختصاصیاگر وب‌سایت اختصاصی خود را راه‌اندازی كرده‌اید، می‌توانید با به‌روزرسانی فایل robots .

txt از ربات‌های هوش مصنوعی بخواهید صفحاتتان را كپی نكنند. بسیاری از وب‌سایت‌های خبری اجازه‌ نمی‌دهند ربات‌های هوش مصنوعی مقالاتشان را مرور كنند. برای مثال، فایل robots.txt وب‌سایت WIRED اجازه‌ی دسترسی به ربات‌های OpenAI، گوگل، آمازون، فیسبوك، Anthropic و Perplexity و بسیاری دیگر را نمی‌دهد .

منبع : https://www.zoomit.ir/howto/420084-stop-your-data-being-used-train-ai/

مجله فن آوری

 
سونی گوشی بسیار حرفه‌ای با بدنه جمع‌و‌جور و شارژ سریع می‌سازد
1403/03/01
چطور بفهمیم امكانات هوش مصنوعی به گوشی سامسونگ اضافه شده‌اند؟
1403/03/01
طراحی دوربین گلكسی زد فولد پس از ۳ سال تغییر می‌كند؟
1403/03/01
دوربین آیفون ۱۶ پرو مكس بهتر از همیشه می‌شود
1403/03/01
تولیدمثل فراتر از یائسگی؛ آیا زمان فرزند‌آوری انسان درحال تكامل است؟
1403/03/01
شیائومی تبلیغ جنجالی اپل را نصفه‌و‌نیمه تقلید كرد [تماشا كنید]
1403/03/01
تیك‌تو تعهد داد: بازی GTA 6 تأخیر نمی‌خورد
1403/03/01
لامبورگینی نسبت‌ به آینده ابرخودروهای برقی مطمئن نیست
1403/03/01
لباسشویی و خشك‌كن ۲۰۲۴ شیائومی با طراحی مدرن و قابلیت‌های هوشمند معرفی شد
1403/03/01
بازی Hellblade 2 در میان استقبال گسترده منتقدان منتشر شد
1403/03/01
چگونه با فعال كردن خودكار Low power mode نگهداری شارژ آیفون را بیشتر كنیم؟
1403/03/01
«اوپنهایمر هوش مصنوعی» از جا ماندن هوش انسان می‌گوید
1403/03/01
این كامیونت خودران شاید راننده‌های انسانی را از دور خارج كند
1403/03/01
مهندسی بی‌نهایت؛ تكنولوژی بی‌نظیر ورزشگاه سانتیاگو برنابئو
1403/03/01
ویوو Y200 پرو رونمایی شد؛ باریك‌ترین گوشی مجهز به نمایشگر خمیده
1403/03/01
راهنمای دریافت فیش حقوقی فرهنگیان
1403/03/01
بعدیانتها


با توجه به نیاز همیشگی شهروندان به اطلاعات و تلفن های تجاری و دولتی اقدام به تولید و راه اندازی سامانه 118 نوین بعنوان بزرگترین پایگاه اطلاعات مشاغل در کشور نمودیم .هدف ما در دسترس قرار دادن اطلاعات و مشخصات مریوط به مشاغل خصوصی و دولتی به عموم شهروندان و کاربران می باشد.


مشهد میدان راهنمایی روبروی دستغیب 3 پلاک 18
تلفن : 38472159 - 051 (10 خط)
ایمیل : info@118ovin.com