OpenAI که در جولای ۲۰۲۰ چت بات ChatGPT-3 را منتشر کرد، برای آموزش مدل زبان آن از مقالات فنی، میلیونها صفحهی وب، پستهای Reddit، کتابها و موارد دیگر استفاده کرد تا یک سیستم مولد متن ایجاد کند. این دادههایی که در اختیار ChatGPT قرار گرفت شامل برخی اطلاعات شخصی کاربران که به صورت آنلاین به اشتراک گذاشته بودند نیز بوده است و همین ماجرا OpenAI و ChatGPT را با مشکل نقض حریم خصوصی روبرو کرده است. در ادامه به جزییات بیشتر این خبر میپردازیم. با مازستا همراه باشید تا به مشکل ChatGPT در حفظ حریم خصوصی بپردازیم.
همانطور که قبلا اشاره کردیم ابتدا یک نهاد ایتالیایی این موضوع را کشف کرد و در پی این موضوع، دسترسی به ChatGPT در ایتالیا محدود شد. در ادامهی این ماجرا OpenAI، مردم ایتالیا را از دسترسی به چت بات خود منع کرد و تلاش کرد تا پاسخی قانع کننده به مقامات و نهادهای مربوطهی ارائه دهد.
به طور کلی، برای اینکه یک شرکت بتواند اطلاعات افراد را جمعآوری و استفاده کند، باید بر یکی از شش دلیل قانونی تکیه کند که میتوان به دلایلی چون مجوز شخصی یا اطلاعات مورد نیاز به عنوان بخشی از قرارداد اشاره کرد. طبق گفتهها، اساساً دو راه پیش روی ChatGPT است که اول جلب رضایت مردم بوده که OpenAI با نقض حریم خصوصی شاید نتواند اینکار را انجام دهد و دوم استدلال اینکه برای “منافع قانونی” به استفاده از دادههای افراد پرداخته است، که انجام آن “بسیار سخت” خواهد بود. به طور کلی بسیاری معتقدند که OpenAI قادر به دفاع از ChatGPT نخواهد بود زیرا موضوع حفظ حریم خصوصی بسیار اهمیت دارد و تاکنون شرکتهای بسیاری به دلیل نقض این موضوع بازخواست شدهاند.
سیاست حفظ حریم خصوصی OpenAI به طور مستقیم به دلایل قانونی آن برای استفاده از اطلاعات شخصی افراد در دادههای آموزشی اشاره نمیکند، اما میگوید که هنگام توسعه خدمات خود بر «منافع قانونی» تکیه میکند.
البته در مورد نقض حریم خصوصی، OpenAI تنها نیست زیرا محققان این حوزه معتقدند که هسته اصلی توسعه یادگیری ماشین و سیستمهای هوش مصنوعی مولد نیز احتمالا با این مشکل روبهرو هستند. ظاهرا این موضوع در پایههای این فناوری وجود دارد و باید به فکر راهحلی برای آن بود.