اطلاعات ورود به حساب کاربران ChatGPT در دارک‌ وب فروخته شده است

فروش اطلاعات کاربران ChatGPT در دارک‌ وب با توجه به پست وبلاگ شرکت امنیتی Group-IB، که با استفاده از ChatGPT تهیه شده است، اطلاعات بیش از ۱۰۱ هزار دستگاه حاوی اطلاعات ورود به سیستم چت‌بات OpenAI در معرض خطر قرار گرفته و در بازارهای تاریک وب از ژوئن ۲۰۲۲ تا مه ۲۰۲۳ معامله شده است. […]

4.9/5 - (17 امتیاز)

فروش اطلاعات کاربران ChatGPT در دارک‌ وب

با توجه به پست وبلاگ شرکت امنیتی Group-IB، که با استفاده از ChatGPT تهیه شده است، اطلاعات بیش از ۱۰۱ هزار دستگاه حاوی اطلاعات ورود به سیستم چت‌بات OpenAI در معرض خطر قرار گرفته و در بازارهای تاریک وب از ژوئن ۲۰۲۲ تا مه ۲۰۲۳ معامله شده است. در ماه مه ۲۰۲۳، این وضعیت به اوج خود رسید و تقریباً ۲۷ هزار دستگاه اطلاعات مربوط به ChatGPT در بازارهای آنلاین سیاه قابل دسترسی بودند.

اطلاعات فاش‌شده ChatGPT از کدام کشورها بوده است؟

بر اساس این گزارش، بیشترین میزان اطلاعات فاش شده در سال گذشته مربوط به منطقه آسیا-اقیانوسیه است و تقریباً ۴۰ درصد از کل آنها را تشکیل می‌دهد. حجم بیشترین اطلاعات مربوط به کاربران هندی با بیش از ۱۲,۵۰۰ مورد بوده و رتبه اول را به خود اختصاص داده است، در حالی که ایالات متحده با تقریباً ۳۰۰۰ مورد، در جایگاه ششم قرار دارد. فرانسه نیز پس از ایالات متحده در جایگاه هفتم قرار گرفته و به عنوان قطب اصلی اروپا از نظر اطلاعات فاش شده شناخته می‌شود.

 

هک ChatGPT

 

امکان ایجاد حساب‌های ChatGPT به طور مستقیم از طریق وب‌سایت OpenAI وجود دارد و همچنین می‌توان برای ورود و استفاده از خدمات این سرویس از حساب‌های گوگل، مایکروسافت یا اپل استفاده کرد. اگرچه در این تحقیق، روش‌های ثبت نام کاربران مورد بررسی قرار نگرفته است، اما طبق گفته “دیمیتری شستاکوف”، رئیس اطلاعات تهدید Group-IB، بیشتر حساب‌های فاش شده از روش احراز هویت مستقیم استفاده می‌کنند.

در گزارش خود، Group-IB همچنین به این نکته اشاره کرده است که تعداد زیادی از کارمندان از ChatGPT برای انجام وظایف خود استفاده می‌کنند، و در این شرایط هشدار داده است که اطلاعات محرمانه شرکت‌ها ممکن است فاش شوند؛ زیرا سؤالات کاربر و سابقه چت آنها به‌طور پیش‌فرض ذخیره می‌شود. این اطلاعات می‌توانند توسط هکرها برای حمله به شرکت‌ها یا سوءاستفاده از کارمندان آنها مورد بهره‌برداری قرار بگیرند.

لازم به ذکر است که تنها مسئله اطلاعات شخصی مدنظر نیست، بلکه خریداران می‌توانند به تاریخچه مکالمات کاربران ChatGPT نیز دسترسی داشته باشند. متخصصان توصیه کرده‌اند که به منظور کاهش آسیب‌پذیری در برابر این نوع حملات، از رمزهای قوی برای مکالمات با بات‌های هوش مصنوعی استفاده کرده و در هنگام نصب پلاگین‌ها احتیاط کنید.

برای اطلاعات بیشتر درمورد هوش مصنوعی روی لینک کنید.