Скандал навколо стартапу DeepSeek

File

DeepSeek, молода китайська стартап-компанія зі штучного інтелекту, опинилася у центрі гучного скандалу, що викликав значні побоювання щодо приватності даних, їхньої безпеки та походження навчальних матеріалів.

Однією з головних проблем є великий обсяг даних, які збирають інструменти штучного інтелекту DeepSeek. Вони охоплюють особисту інформацію під час налаштування облікового запису, усі дані, введені на платформі (тексти, аудіо, підказки, завантажені файли, відгуки, історію чатів), інформацію про пристрій (модель, операційну систему, патерни натискань клавіш, IP-адресу, системну мову, унікальних ідентифікаторів пристроїв, cookies) і відстежування використання програми на різних пристроях.

Безпека додатково піддавалася критиці після виявлення критичної вразливості дослідниками Wiz. Вони виявили, що публічна база даних ClickHouse, пов'язана із DeepSeek, була доступна без жодної автентифікації, що надавало можливість повного контролю над базою, включаючи доступ до історії чатів, секретів API, деталей бекенду та операційних метаданих. Вразливість становила серйозний ризик для компанії та її користувачів.

У контексті зростаючого регулювання, італійський орган з питань приватності GPDP вимагав від DeepSeek детальної інформації про обробку даних, їхнє походження, мету збору і місце зберігання. Це призвело до вилучення DeepSeek з магазинів додатків Google та Apple в Італії на початку 2025 року.

Вплив DeepSeek на глобальному рівні також не залишився без уваги. Швидке зростання популярності, зі 2 мільйонами завантажень з початку 2025 року, викликало занепокоєння національної безпеки. Зберігання даних користувачів із США в Китаї змусило сотні компаній обмежити використання додатку. Проте, компанії-гіганти, такі як Microsoft, Amazon та Google продовжують активно інтегрувати моделі DeepSeek у свої платформи, надаючи розробникам рекомендації щодо використання.

Зокрема, Microsoft інтегрувала моделі DeepSeek у свою Azure AI Foundry та GitHub, забезпечуючи розробників інструкціями щодо застосування цих моделей у різноманітних додатках. Це все може підкреслити ризики, пов'язані зі збиранням та безпекою даних, і застерегти індустрію від нехтування протоколами безпеки у гонитві за новітніми технологіями.

Отже, неоднозначний шлях DeepSeek указує на важливість обережного підходу до розвитку технологій штучного інтелекту. Попри свою потужність і ефективність, їхні інструменти викликали значні питання щодо приватності та безпеки даних, посиливши увагу регуляторів до зберігання даних і загроз національній безпеці.

4 коментарі до “Скандал навколо стартапу DeepSeek

  1. Скандал навколо DeepSeek підкреслює необхідність ретельного контролю за даними та забезпечення їхньої безпеки для користувачів.

  2. Не можна забувати, що ризики в сфері штучного інтелекту завжди були притаманні, і нові можливості їх не скасовують.

  3. Проблеми з приватністю даних DeepSeek вказують на критичну потребу у більшій прозорості технологій штучного інтелекту.

  4. Ситуація з DeepSeek вимагає негайних заходів для захисту особистих даних користувачів і забезпечення їхньої конфіденційності.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *