AI Act mówi wprost o ryzyku nadmiernego polegania na AI. Pytanie brzmi więc – jak zamienić to w realny element AI Governance i naszej codzienności, a nie martwy zapis?
Wszyscy popełniamy błędy. Wynikać mogą one z niewiedzy, „złej” intuicji czy też informacji, które okazały się błędne.
⚖️ prawnik, który nie sprawdził czy cytowane przez ChatGPT orzeczenie w ogóle istnieje,
💰osoba odpowiadająca za linię biznesową, która przedstawiła zarządowi dane rynkowe, które nie znajdują pokrycia w rzeczywistości – bo tak „wypluł” co-pilot,
🧑🏻🏫 student, który olał weryfikację źródeł i oddał przygotowane przez Gemini wypracowanie.
Człowiek ma tendencję do nadmiernego polegania na informacjach, które są proste i pochodzą z (pozornie) zaufanego źródła. Jeżeli do tego są one dostarczane szybko, to jesteśmy wygrani. NIE CHCE SIĘ NAM WERYFIKOWAĆ.
Jesteśmy zwyczajnie leniwi. Face the truth.
W sprawach mniejszej wagi może nie mieć to za specjalnie znaczenia, ale co w sytuacji, gdy stawka jest wysoka?
W art. 14 AI Act znajdziemy wymagania stawiane systemom wysokiego ryzyka ( a właściwie ich dostawcom) w zakresie nadzoru człowieka. Jednym z takich wymagań jest takie projektowanie rozwiązań AI tak aby użytkownicy:
🧠 pozostawali świadomi potencjalnej tendencji do automatycznego polegania (błąd automatyzacji) lub nadmiernego poleganiu na wynikach dostarczanych przez system AI – szczególnie tych informujących nas o ważnych kwestiach czy pomagających podejmować właściwe decyzje.
I teraz praktyczne pytanie – jak to zrobić? Bo w teorii brzmi świetnie.
Mam kilka propozycji:
⚖️ odpowiednia polityka stosowania takich rozwiązań połączona z instrukcją dla użytkowników – może być wideo, może być prezentacja, ale ważne jest, żeby „doszło”
🛠️ mechanizm kontroli „uważności” – np. dodatkowe okno pop-up z pytaniem o to czy zweryfikowaliśmy informacje,
‼️ informowanie o realnych możliwościach rozwiązań i obrazowe pokazywanie na ile (nie)dokładne mogą być wyniki (łącznie z case’ami, które są co najmniej wstydliwe),
✋🏻 losowe kontrole jakości realizowane w ramach odpowiedniego systemu monitoringu oraz połączenie tego z mechanizmem eskalacji.
Są to rozwiązania, które mają nam pomóc w wyrobieniu sobie nawyku „nieufności” lub ograniczonego zaufania. Nie chodzi o to, aby zniechęcić do korzystania z narzędzi AI.
Chodzi o to, aby były one wykorzystywane w modelu AI-człowiek, a nie człowieka, który bezwiednie klika „ok”. To ryzyko powinno być wpisane do rejestru ryzyk AI i powiązane z kontrolami, monitoringiem oraz szkoleniami użytkowników.
To nie jest łatwe, ale to jedyny sposób, żeby pomniejszyć prawdopodobieństwo wystąpienia ryzyka, która może mieć dla naszej organizacji negatywne konsekwencje.
Jak to rozwiązujecie u siebie – szkoleniem, kontrolami, czy zmianą procesu?
Jeśli projektujecie takie mechanizmy i chcecie je poukładać systemowo, chętnie pomożemy.