Jak ograniczyć ryzyko nadmiernego polegania na AI?

AI Act mówi wprost o ryzyku nadmiernego polegania na AI. Pytanie brzmi więc – jak zamienić to w realny element AI Governance i naszej codzienności, a nie martwy zapis? Wszyscy popełniamy błędy. Wynikać mogą one z niewiedzy, „złej” intuicji czy też informacji, które okazały się błędne. ⚖️ prawnik, który nie sprawdził czy cytowane przez ChatGPT […]

AI Act mówi wprost o ryzyku nadmiernego polegania na AI. Pytanie brzmi więc – jak zamienić to w realny element AI Governance i naszej codzienności, a nie martwy zapis?

Wszyscy popełniamy błędy. Wynikać mogą one z niewiedzy, „złej” intuicji czy też informacji, które okazały się błędne.

⚖️ prawnik, który nie sprawdził czy cytowane przez ChatGPT orzeczenie w ogóle istnieje,

💰osoba odpowiadająca za linię biznesową, która przedstawiła zarządowi dane rynkowe, które nie znajdują pokrycia w rzeczywistości – bo tak „wypluł” co-pilot,

🧑🏻‍🏫 student, który olał weryfikację źródeł i oddał przygotowane przez Gemini wypracowanie.

Człowiek ma tendencję do nadmiernego polegania na informacjach, które są proste i pochodzą z (pozornie) zaufanego źródła. Jeżeli do tego są one dostarczane szybko, to jesteśmy wygrani. NIE CHCE SIĘ NAM WERYFIKOWAĆ.

Jesteśmy zwyczajnie leniwi. Face the truth.

W sprawach mniejszej wagi może nie mieć to za specjalnie znaczenia, ale co w sytuacji, gdy stawka jest wysoka?

W art. 14 AI Act znajdziemy wymagania stawiane systemom wysokiego ryzyka ( a właściwie ich dostawcom) w zakresie nadzoru człowieka. Jednym z takich wymagań jest takie projektowanie rozwiązań AI tak aby użytkownicy:

🧠 pozostawali świadomi potencjalnej tendencji do automatycznego polegania (błąd automatyzacji) lub nadmiernego poleganiu na wynikach dostarczanych przez system AI – szczególnie tych informujących nas o ważnych kwestiach czy pomagających podejmować właściwe decyzje.

I teraz praktyczne pytanie – jak to zrobić? Bo w teorii brzmi świetnie.

Mam kilka propozycji:

⚖️ odpowiednia polityka stosowania takich rozwiązań połączona z instrukcją dla użytkowników – może być wideo, może być prezentacja, ale ważne jest, żeby „doszło”

🛠️ mechanizm kontroli „uważności” – np. dodatkowe okno pop-up z pytaniem o to czy zweryfikowaliśmy informacje,

‼️ informowanie o realnych możliwościach rozwiązań i obrazowe pokazywanie na ile (nie)dokładne mogą być wyniki (łącznie z case’ami, które są co najmniej wstydliwe),

✋🏻 losowe kontrole jakości realizowane w ramach odpowiedniego systemu monitoringu oraz połączenie tego z mechanizmem eskalacji.

Są to rozwiązania, które mają nam pomóc w wyrobieniu sobie nawyku „nieufności” lub ograniczonego zaufania. Nie chodzi o to, aby zniechęcić do korzystania z narzędzi AI.

Chodzi o to, aby były one wykorzystywane w modelu AI-człowiek, a nie człowieka, który bezwiednie klika „ok”. To ryzyko powinno być wpisane do rejestru ryzyk AI i powiązane z kontrolami, monitoringiem oraz szkoleniami użytkowników.

To nie jest łatwe, ale to jedyny sposób, żeby pomniejszyć prawdopodobieństwo wystąpienia ryzyka, która może mieć dla naszej organizacji negatywne konsekwencje.

Jak to rozwiązujecie u siebie – szkoleniem, kontrolami, czy zmianą procesu?
Jeśli projektujecie takie mechanizmy i chcecie je poukładać systemowo, chętnie pomożemy.

Kategoria: Blog AI & Data • Autor: Michał Nowakowski • 2026-02-24