The Human Edge: Dobrostan jak katalizator transformacji AI — POBIERZ RAPORT → The Human Edge: Dobrostan jak katalizator transformacji AI — POBIERZ RAPORT → The Human Edge: Dobrostan jak katalizator transformacji AI — POBIERZ RAPORT → The Human Edge: Dobrostan jak katalizator transformacji AI — POBIERZ RAPORT →
mysource / Insights / Shadow AI
AI & transformacja

Shadow AI — co ukrywa 55% polskich pracowników

5 marca 202610 min czytaniaRedakcja mysource
Shadow AI

Według badań KPMG i University of Melbourne (2025) 57% pracowników na świecie ukrywa, że używa AI w pracy. W Polsce wskaźnik wynosi 55%. To nie problem dyscypliny. To luka między tempem zmian technologicznych a tempem reakcji organizacji.

Shadow AI to każde użycie narzędzi sztucznej inteligencji w pracy zawodowej bez wiedzy, zgody lub kontroli pracodawcy. Pracownik wkleja fragment kontraktu w ChatGPT, żeby szybciej napisać podsumowanie. Marketer używa Midjourney do moodboardu. Analityk prosi Claude o wyciągnięcie wniosków z danych. Każde z tych działań jest racjonalne na poziomie indywidualnym. Każde tworzy ryzyko na poziomie organizacji.

Czym jest Shadow AI — definicja, której brakuje w polityce

Shadow AI obejmuje trzy kategorie:

  • Narzędzia konsumenckie używane w pracy — ChatGPT, Claude, Gemini na koncie prywatnym pracownika.
  • Wtyczki i rozszerzenia AI w narzędziach służbowych (np. Grammarly, Notion AI), które pracodawca nie zatwierdził.
  • API i custom GPT — pracownik tworzy własne narzędzia, łączy się z modelami przez API, ale firma o tym nie wie.

Wspólny mianownik: brak ścieżki audytu i brak wglądu w to, co opuściło organizację.

Skala — większość, nie mniejszość

WskaźnikWartośćŹródło
Pracownicy ukrywający użycie AI (świat)57%KPMG / Melbourne 2025
Pracownicy ukrywający użycie AI (Polska)55%EY Polska 2024
Wprowadzające dane firmowe do publicznych LLM~38%Cyberhaven 2024
Organizacje z formalną polityką AI<30%McKinsey State of AI 2025
Organizacje monitorujące użycie AI~12%jw.

To nie marginalne zachowanie. To norma, której organizacje nie mierzą.

Dlaczego ludzie ukrywają — pięć motywów

1. Strach przed oceną. "Jeśli powiem, że ChatGPT pomógł mi napisać raport, dostanę mniej kredytu". W zespołach bez kultury uczciwego korzystania z narzędzi AI staje się prywatnym sekretem.

2. Brak jasnej polityki. Pracownik nie wie, czy wolno mu używać. Domyślne zachowanie: używaj po cichu i nie pytaj.

3. Strach przed przeciążeniem. Jeśli przyznam się, że robię raport w 30 minut zamiast 3 godzin — dostanę 5 raportów zamiast jednego. Shadow AI to obrona przed expansion of expectations.

4. Bariery formalne. Firma blokuje publiczne LLM-y, ale nie daje alternatywy. Pracownik używa telefonu prywatnego, żeby ukończyć zadanie.

5. Niepewność co do legalności. "Czy wolno mi wkleić fragment dokumentu klienta?" — pracownik nie wie, więc nie pyta i robi.

Sygnał

Shadow AI rośnie najszybciej w organizacjach, które oficjalnie "nie używają AI". Brak polityki to polityka — najgorsza możliwa.

Cztery klasy ryzyka — od cieknącej tajemnicy po skażenie marki

Ryzyko 1 — wyciek danych. Wklejony do publicznego modelu fragment kontraktu, dane klienta, kod źródłowy mogą trafić do zbioru treningowego. Samsung w 2023 zakazał ChatGPT po trzech incydentach w trzy tygodnie.

Ryzyko 2 — błąd merytoryczny niewykryty. Output AI bez review eksperta wchodzi do dokumentu lub decyzji. Halucynacja staje się faktem operacyjnym.

Ryzyko 3 — luka regulacyjna. AI Act, RODO, sektorowe przepisy bankowe i farmaceutyczne wymagają identyfikacji i kontroli systemów AI. Shadow AI = niezgodność niemierzalna.

Ryzyko 4 — erozja autorstwa. Komu należy się kredyt za pracę współ-generowaną z AI? Bez polityki pojawia się cisza, w której rosną konflikty zespołowe.

Nieoczywisty koszt — kultura nieufności

Najgłębszy koszt Shadow AI nie leży w wycieku danych. Leży w tym, że organizacja oficjalnie wierzy w jeden tempo pracy, a faktycznie funkcjonuje w innym. Manager myśli, że raport wymagał 3 dni. Faktycznie zajął popołudnie. Decyzje strategiczne (deadline'y, planowanie zasobów, oceny) są podejmowane na podstawie zniekształconego obrazu rzeczywistości.

Iwo Zmyślony — kurator ścieżki AI Mindset

Shadow AI to symptom — nie choroba. Choroba nazywa się: organizacja, która nie potrafi nazwać tego, co się w niej dzieje.

Jak wyjść z cienia — protokół w pięciu krokach

Krok 1 — zdiagnozuj prawdę

Zacznij od anonimowej ankiety: "Jakie narzędzia AI używasz w pracy w ostatnich 30 dniach?". Nie pytaj, czy wolno. Pytaj, co. Reakcją zarządu na surową prawdę nie może być sankcja — ma być polityka.

Krok 2 — sformułuj politykę "use openly, use safely"

Trzy listy:

  • Zielona — narzędzia zatwierdzone, dane dozwolone (notatki własne, treści marketingowe).
  • Pomarańczowa — wymagane review (raporty wewnętrzne, prezentacje).
  • Czerwona — zakaz: dane osobowe klientów, kontrakty, kod źródłowy, dane medyczne.

Krok 3 — daj alternatywę enterprise

Konto enterprise ChatGPT, Microsoft Copilot, lokalny model. Bez alternatywy zakaz nie działa — pracownicy używają prywatnych telefonów.

Krok 4 — szkolenie i ścieżka eskalacji

Krótkie warsztaty: "Co wkleić, czego nie wkleić, kogo zapytać w wątpliwości". Przydziel rolę AI Champion w każdym dziale.

Krok 5 — pomiar i otwarta komunikacja

Co kwartał: pomiar użycia (zielony / pomarańczowy / czerwony), liczba pytań do AI Champion, liczba incydentów. Komunikuj wyniki otwarcie. Cel: zero incydentów czerwonych, rosnąca liczba pytań.

Shadow AI w pomiarze JAIRI Index

W warstwie W1 Impact Shadow AI jest jedną z pięciu osi pomiaru. W próbie N=247 (sektor finansowy PL, Q1 2026) 62% respondentów przyznało się anonimowo do użycia AI bez wiedzy pracodawcy w ostatnich 30 dniach. Wśród tych samych respondentów jawne użycie deklarowało 18%.

Luka 44 punktów procentowych między anonimowym przyznaniem a jawną deklaracją to bezpośredni wskaźnik kultury milczenia wokół AI w polskich organizacjach.

Najczęstsze pytania

Czy zakaz publicznych narzędzi AI rozwiązuje problem Shadow AI?

Nie. Bez alternatywy zakaz przesuwa Shadow AI z laptopów służbowych na telefony prywatne, gdzie kontrola jest jeszcze mniejsza. Zakaz bez polityki "use openly" pogarsza sytuację.

Jak zmierzyć skalę Shadow AI w mojej organizacji?

Anonimowa ankieta z gwarancją niesankcjonowania. Pytania o konkretne narzędzia (ChatGPT, Claude, Gemini, Copilot, Midjourney, inne), częstotliwość i typy zadań. Bez tej diagnozy każda polityka będzie ślepa.

Czy AI Act wymaga zarządzania Shadow AI?

Tak — pośrednio. Wymóg identyfikacji systemów wysokiego ryzyka (high-risk AI systems) zakłada, że organizacja wie, jakie systemy są używane. Shadow AI zaprzecza tej wiedzy.

Czy enterprise ChatGPT eliminuje Shadow AI?

Eliminuje jego najczęstszą formę (publiczne LLM-y). Nie eliminuje wtyczek w innych narzędziach, custom GPT i API. Polityka musi obejmować wszystkie trzy kategorie.

Po jakim czasie polityka "use openly" zaczyna działać?

Pierwsze efekty (wzrost jawnych deklaracji, spadek incydentów) — 60-90 dni. Trwała zmiana kultury — 6-12 miesięcy. Warunek: konsekwentna komunikacja zarządu i brak retroaktywnych sankcji za przeszłe użycie.

Brak polityki to polityka — najgorsza możliwa.

Zacznij od pomiaru

JAIRI Index W1 Impact — narzędzie do diagnozy Shadow AI w Twojej organizacji