Prezes UODO przeprowadził badanie dotyczące tego, w jaki sposób organizacje korzystają z narzędzi sztucznej inteligencji. Wynika z niego, że coraz więcej podmiotów decyduje się na stosowanie AI w codziennej pracy, przy czym aż 95,9% z nich ocenia się jako nieprzygotowane lub niepewne w zakresie stosowania wymogów RODO w tym kontekście. Dodatkowo, 41% badanych błędnie uważa, że opracowywanie własnych systemów AI nie wiąże się z przetwarzaniem danych osobowych lub w ogóle nie potrafi ocenić tej kwestii. Co więcej, Prezes UODO zwrócił uwagę na tzw. zjawisko shadow AI, które polega na tym, że pracownicy, chcąc usprawnić swoją pracę, wykorzystują narzędzia sztucznej inteligencji bez wiedzy i zgody pracodawcy.
Każda organizacja wykorzystująca w swoich procesach narzędzia sztucznej inteligencji (w tym popularne chatboty, jak np. ChatGPT, Gemini czy Perplexity), powinna wdrożyć odpowiednie zasady ich stosowania (tzw. polityka AI), w tym zakazujące pracownikom korzystania z darmowych lub konsumenckich wersji chatów. Wersje te nie dają bowiem żadnych gwarancji bezpieczeństwa, a opłata subskrypcyjna związana jest jedynie z dostępem do dodatkowych funkcjonalności (jak np. w przypadku ChatGPT Plus czy Pro), a nie z ochroną danych osobowych i tajemnicy firmy.

