Aktualności Sprzęt i technologie OpenAI wzmacnia prywatność ChatGPT: Szyfrowanie czatu w opracowaniu

OpenAI wzmacnia prywatność ChatGPT: Szyfrowanie czatu w opracowaniu

Arkadiy Andrienko
Czytaj w pełnej wersji

OpenAI rozwija system szyfrowania dla ChatGPT, ogłosił dyrektor generalny Sam Altman. Celem jest wzmocnienie ochrony danych użytkowników, ponieważ ludzie coraz bardziej ufają AI w kwestiach wrażliwych — w tym informacji medycznych i prawnych.

Szyfrowanie początkowo zostanie wprowadzone dla tymczasowych czatów, które nie są zapisywane w historii czatów ani wykorzystywane do szkolenia AI. Główna przeszkoda techniczna? W przeciwieństwie do aplikacji do wiadomości, ChatGPT musi „widzieć” tekst, aby generować odpowiedzi — co wyklucza klasyczne szyfrowanie end-to-end. OpenAI bada rozwiązania takie jak model Apple’a Private Cloud Compute, w którym dane są przetwarzane bez bezpośredniego dostępu ludzi.

Ten krok następuje w obliczu dwóch kluczowych wydarzeń:

  1. Amerykański sąd nakazał OpenAI przechowywanie wszystkich czatów użytkowników na czas nieokreślony — nawet usuniętych — w związku z pozwem o naruszenie praw autorskich dotyczących danych do szkolenia AI.
  2. W lipcu 2025 roku publiczne linki czatów okazały się być wyszukiwalne w Internecie. Choć szybko naprawione, luka ujawniła prywatne dane użytkowników.

Altman zauważył, że prośby organów ścigania pozostają w „dwucyfrowych” liczbach rocznie, ale ostrzegł: „Wystarczy jeden poważny incydent, aby wymusić systemową zmianę.” Nie podano harmonogramu, ale rozwój jest „aktywny.”

Szyfrowanie ChatGPT nie jest tak proste jak wciśnięcie przycisku. To techniczna równowaga — balansowanie bezpieczeństwa, funkcjonalności i zgodności z prawem. Użytkownicy mogą zyskać prawdziwą prywatność, ale stracić pewne udogodnienia, podczas gdy OpenAI może stanąć w obliczu presji ze strony regulatorów i kosztownych przekształceń architektury danych.

    O autorze
    Komentarze0
    Zostawić komentarz