OpenAI rozwija system szyfrowania dla ChatGPT, ogłosił dyrektor generalny Sam Altman. Celem jest wzmocnienie ochrony danych użytkowników, ponieważ ludzie coraz bardziej ufają AI w kwestiach wrażliwych — w tym informacji medycznych i prawnych.
Szyfrowanie początkowo zostanie wprowadzone dla tymczasowych czatów, które nie są zapisywane w historii czatów ani wykorzystywane do szkolenia AI. Główna przeszkoda techniczna? W przeciwieństwie do aplikacji do wiadomości, ChatGPT musi „widzieć” tekst, aby generować odpowiedzi — co wyklucza klasyczne szyfrowanie end-to-end. OpenAI bada rozwiązania takie jak model Apple’a Private Cloud Compute, w którym dane są przetwarzane bez bezpośredniego dostępu ludzi.
Ten krok następuje w obliczu dwóch kluczowych wydarzeń:
Altman zauważył, że prośby organów ścigania pozostają w „dwucyfrowych” liczbach rocznie, ale ostrzegł: „Wystarczy jeden poważny incydent, aby wymusić systemową zmianę.” Nie podano harmonogramu, ale rozwój jest „aktywny.”
Szyfrowanie ChatGPT nie jest tak proste jak wciśnięcie przycisku. To techniczna równowaga — balansowanie bezpieczeństwa, funkcjonalności i zgodności z prawem. Użytkownicy mogą zyskać prawdziwą prywatność, ale stracić pewne udogodnienia, podczas gdy OpenAI może stanąć w obliczu presji ze strony regulatorów i kosztownych przekształceń architektury danych.