چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری كنیم؟
نگران نباشید، میتوانید جلوی دسترسی ابزارهای هوش مصنوعی به دادههای شخصی خود را بگیرید تا از آنها برای آموزشهای مدلهای هوش مصنوعی استفاده نشود.
چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری كنیم؟آموزشفناوریهوش مصنوعیچهارشنبه ۱۲ اردیبهشت ۱۴۰۳ - ۱۲:۳۰مطالعه 7 دقیقهمجتبی بوالحسنیتبلیغاتتبلیغاتتبلیغاتنگران نباشید، میتوانید جلوی دسترسی ابزارهای هوش مصنوعی به دادههای شخصی خود را بگیرید تا از آنها برای آموزشهای مدلهای هوش مصنوعی استفاده نشود .
تبلیغاتهر محتوایی كه در سطح اینترنت مشاهده میكنید، بهاحتمال زیاد جمعآوری شده و برای آموزش نسل كنونی هوش مصنوعی مولد مورد استفاده قرار گرفته است. مدلهای زبان بزرگ مثل ChatGPT و ابزارهای تولیدكنندهی تصویر با انبوهی از دادههای ما تغذیه میشوند .
حتی اگر این دادهها برای ساخت چتبات بهكار نروند، میتوانند در ویژگیهای دیگر یادگیری ماشین استفاده شوند.شركتهای فناوری برای جمعآوری دادههایی كه بهگفته خودشان برای خلق هوش مصنوعی مولد ضروری هستند، سرتاسر وب را با بیتوجهی به حقوق مؤلفان، قوانین كپیرایت و حریم خصوصی كاربران، مورد استفاده قرار دادهاند .
شركتهایی هم كه انبوهی از اطلاعات كاربران را در اختیار دارند، بهدنبال سهمی از سود صنعت هوش مصنوعی هستند.اگر شما هم نگران هستید كه دادههایتان مورد استفادهی هوش مصنوعی قرار بگیرد، ما در این مقاله بهبررسی راهكارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی میپردازیم .
فهرست مطالبمحدودیتهای جلوگیری از دسترسی هوش مصنوعی به دادههاروش جلوگیری از دسترسی ابزارهای هوش مصنوعی به دادههاگوگل جمنایChatGPT و DALL-EPerplexityادوبیوردپرسGrammarlyQuoraTumblrاسلكوبسایت اختصاصیكپی لینكمحدودیتهای جلوگیری از دسترسی هوش مصنوعی به دادههاپیشاز آنكه به روشهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقعبینانه نگهداریم .
بسیاری از شركتهای توسعهدهندهی هوش مصنوعی از مدتها قبل اقدام به جمعآوری گستردهی دادههای وب كردهاند؛ بنابر این، احتمالاً هر آنچه كه تا امروز منتشر كردهاید، هماكنون در سیستمهای آنها وجود دارد .
این شركتها دربارهی اطلاعاتی كه استخراج یا خریداری كردهاند، شفاف عمل نمیكنند و اطلاعات ما در این زمینه بسیار مبهم است.شركتها میتوانند فرایند انصراف از استفادهی دادهها برای آموزش هوش مصنوعی را پیچیده كنند .
بسیاری از افراد دربارهی مجوزهایی كه پذیرفتهاند یا نحوهی بهكارگیری دادهها، دید روشنی ندارند. این موضوع مربوطبه قبلاز زمانی است كه به قوانین مختلف، مانند حمایت از حقوق مالكیت فكری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود .
فیسبوك، گوگل و شركتهای دیگر، در اسناد مربوطبه حریم خصوصی خود ذكر كردهاند كه شاید از دادههای شما برای آموزش هوش مصنوعی استفاده كنند.فهرست زیر فقط شامل شركتهایی میشود كه درحالحاضر راهكاری برای منع دسترسی آنها به دادههای شخصی كاربران برای آموزش مدلهای هوش مصنوعی ارائه میدهند .
كپی لینكروش جلوگیری از دسترسی ابزارهای هوش مصنوعی به دادههاذخیرهسازی فایلها در سرویسهای ابری، مزایای زیادی دارد. اما این فایلها میتوانند برای مقاصد دیگر نیز مورد استفاده قرار بگیرند. براساس اسناد شركتهایی مانند ادوبی و آمازون، دادههای ذخیرهشده در فضای ابری آنها، میتواند برای آموزش الگوریتمهای یادگیری ماشین بهكار رود .
كپی لینكگوگل جمنایاگر از چتبات گوگل جمنای (Gemini) استفاده میكنید، باید بدانید كارشناسان انسانی برخی مكالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی میكنند. بههر حال، میتوانید این دسترسی را لغو كنید .
بدینمنظور جمنای را در مرورگر خود باز كرده، روی بخش Activity كلیك و سپس از منوی كشویی Turn Off را انتخاب كنید. در این قسمت، میتوانید صرفاً فعالیت جمنای را غیرفعال كنید و یا با انتخاب گزینهی Delete data، هم دسترسی را لغو كرده و هم اطلاعات مكالمات گذشته را پاك كنید .
نكتهی مهم اینكه با غیرفعالسازی دسترسی جمنای به دادههای شخصی خود، مكالمات آتی شما دیگر برای بازبینی دردسترس نخواهد بود، اما اطلاعات مكالمات قبلی كه برای بررسی انتخاب شدهاند، همچنان تا سه سال نزد گوگل باقی خواهند ماند .
كپی لینكChatGPT و DALL-Eهنگام استفاده از چتباتها، ناخواسته اطلاعات شخصی زیادی را فاش میكنیم. OpenAI، بهعنوان توسعهدهندهی چتبات محبوب ChatGPT، به كاربران اختیاراتی برای كنترل دادههایشان میدهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدلهای هوش مصنوعی آینده میشود .
طبق صفحات راهنمای OpenAI، كاربران وب ChatGPT كه حساب كاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینهی Improve the model for everyone را غیرفعال كنند. اگر حساب كاربری دارید و ازطریق مرورگر وب وارد شدهاید، باید به بخشChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینهی Chat History & Training را خاموش كنید .
درصورتیكه از اپلیكیشنهای موبایل ChatGPT استفاده میكنید، به Settings مراجعه كرده و Data Controls را انتخاب كنید و درنهایت گزینهی Chat History & Training را خاموش كنید.صفحات پشتیبانی OpenAI هشدار میدهند كه تغییر تنظیمات دسترسی به دادههای شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاههای شما همگامسازی نمیشود؛ بنابراین، باید اینكار را در هر جایی كه از ChatGPT استفاده میكنید، انجام دهید .
فعالیتهای OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است كه به شما امكان میدهد با ارسال آن، تصاویر مورد نظر خود را از مجموعه دادههای آموزشی آینده حذف كنید .
در این فرم باید نام، ایمیل، مالكیت حقنشر تصویر، جزئیات تصویر و اصل تصویر را آپلود كنید. OpenAI همچنین میگوید اگر حجم زیادی از تصاویر را بهصورت آنلاین میزبانی میكنید كه نمیخواهید برای آموزش دادهها استفاده شوند، شاید اضافهكردن GPTBot به فایل robots .
txt وبسایت محل میزبانی تصاویر، روش كارآمدتری باشد.كپی لینكPerplexityPerplexity استارتاپی است كه با استفاده از هوش مصنوعی در جستوجوی وب و یافتن پاسخ سؤالات به كاربران كمك میكند. این ابزار مثل سایر نرمافزارهای مشابه، بهصورت پیشفرض رضایت شما برای استفاده از تعاملات و دادههایتان را در جهت بهبود هوش مصنوعی خود دریافت میكند .
برای غیرفعالكردن این مورد، روی نام كاربری خود كلیك كنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.كپی لینكادوبیاگر از حساب كاربری شخصی ادوبی استفاده میكنید، غیرفعالكردن این قابلیت بهسادگی امكانپذیر است .
بدینمنظور باید در صفحهی حریم خصوصی ادوبی به بخش Content analysis بروید و كلید مربوطه را خاموش كنید. برای حسابهای تجاری یا آموزشی، این امكان بهصورت مجزا برای تكتك كاربران وجود ندارد و برای غیرفعالسازی آن باید با مدیر سیستم تماس بگیرید .
كپی لینكوردپرسوردپرس گزینهای برای جلوگیری از اشتراكگذاری دادهها با سرویسهای شخص ثالث دارد. برای فعال كردن این قابلیت، در پنل مدیریت وبسایت، روی Settings و بعد از آن General و سپس Privacy كلیك كرده و در نهایت تیك گزینهی Prevent third-party sharing را بزنید .
سخنگوی Automattic میگوید: «ما درحال همكاری با خزندههای وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای كاربران را بگیریم.»كپی لینكGrammarlyدرحال حاضر، كاربران عادی گرمرلی (Grammarly) امكان لغو استفاده از دادههایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند .
این امكان فقط برای حسابهای تجاری (Business Account) دردسترس است كه بهصورت خودكار قابل مدیریت بوده و نیازی به درخواست مستقیم كاربر ندارد. مقالات مرتبط:نبرد بینگ چت، بارد و چتجیپیتی؛ برنده كدام است؟۶ دلیل كه نباید كوركورانه به هوش مصنوعی اعتماد كنیدبرای لغو دسترسی گرمرلی در حسابهای تجاری، به تنظیمات حساب كاربری (Account Settings) مراجعه، روی تب Data Settings كلیك و سپس گزینهی Product Improvement & Training را غیرفعال كنید .
همچنین، حسابهای تجاری تحت مدیریت مانند حسابهای آموزشی و حسابهای خریداریشده ازطریق نمایندهی فروش گرمرلی، بهصورت خودكار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.كپی لینكQuoraQuora ادعا میكند درحالحاضر از پاسخها، پستها یا نظرات كاربران برای آموزش هوش مصنوعی استفاده نمیكند .
این شركت همچنین هیچگونه دادهی كاربری را برای آموزش هوش مصنوعی بهفروش نمیرساند. بههر حال، Quora همچنان گزینهای برای انصراف از این موضوع در نظر گرفته است. برای اینكار، به صفحهی Settings بروید، روی Privacy كلیك و سپس Allow large language models to be trained on your content را غیرفعال كنید .
بهنوشتهی WIRED، امكان دارد Quora همچنان از برخی پستهای خاص برای آموزش مدلهای زبان بزرگ (LLM) استفاده كند. صفحات راهنمای این شركت توضیح میدهند درصورتیكه به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورد استفاده قرار گیرد .
این شركت اشاره میكند كه احتمال استخراج دادهها ازطرف شركتهای متفرقه نیز وجود دارد.كپی لینكTumblrشركت Automattic، مالك وبسایتهای Tumblr و WordPress.com، اعلام كرده كه با همكاری شركتهای هوش مصنوعی قصد دارد از مجموعه دادههای عظیم و منحصربهفرد محتوای منتشر شده در پلتفرمهای خود برای آموزش هوش مصنوعی استفاده كند .
سخنگوی این شركت تأكید كرده است كه ایمیلهای كاربران و محتوای خصوصی شامل این همكاری نخواهد شد.درصورتیكه در Tumblr وبلاگ شخصی دارید، میتوانید با مراجعه به Settings، انتخاب وبلاگ، كلیك روی آیكون چرخدنده، رفتن به بخش Visibility و فعالكردن گزینهی Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید .
همچنین بر اساس صفحات پشتیبانی Tumblr، پستهای صریح، وبلاگهای حذفشده، و وبلاگهای دارای رمزعبور یا خصوصی بههیچوجه با شركتهای دیگر به اشتراك گذاشته نمیشوند.كپی لینكاسلكشاید برایتان عجیب باشد، اما حتی همان پیامهای رد و بدل شدهی بهظاهر بیاهمیت در اسلك محل كارتان هم ممكن است برای آموزش مدلهای این پلتفرم استفاده شوند .
براساس گفتهی معاون بخش محصول اسلك، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائهی قابلیتهایی مثل پیشنهاد كانال و ایموجی استفاده میكند. اگرچه اسلك از دادههای مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمیكند، اما میتواند از تعاملات شما برای بهبود قابلیتهای یادگیری ماشینی نرمافزار بهره ببرد .
در صورتیكه از حساب سازمانی اسلك استفاده میكنید، امكان انصراف از این فرآیند وجود ندارد.تنها راه برای لغو اشتراك اسلك، ارسال ایمیل ازطرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود .
اسلك هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراك ارائه نمیدهد، اما پساز تكمیل آن باید ایمیل تأیید برای شما ارسال كند.كپی لینكوبسایت اختصاصیاگر وبسایت اختصاصی خود را راهاندازی كردهاید، میتوانید با بهروزرسانی فایل robots .
txt از رباتهای هوش مصنوعی بخواهید صفحاتتان را كپی نكنند. بسیاری از وبسایتهای خبری اجازه نمیدهند رباتهای هوش مصنوعی مقالاتشان را مرور كنند. برای مثال، فایل robots.txt وبسایت WIRED اجازهی دسترسی به رباتهای OpenAI، گوگل، آمازون، فیسبوك، Anthropic و Perplexity و بسیاری دیگر را نمیدهد .
منبع : https://www.zoomit.ir/howto/420084-stop-your-data-being-used-train-ai/