Sep 3 • Katarzyna Cichoń-Klępka

AI w Zakupach: Uwaga, Twój nowy asystent potrafi kłamać.

1. Jak zasada "Garbage In, Garbage Out" chroni Cię przed kosztownymi błędami?

Wyobraź sobie scenariusz: jesteś w trakcie kluczowego spotkania z zarządem. Prezentujesz właśnie raport dotyczący optymalizacji kosztów w kluczowej kategorii, wygenerowany przy pomocy AI. Analiza jest błyskotliwa, wnioski rewolucyjne, a potencjalne oszczędności idą w miliony. Wtem Prezes Finansów zadaje jedno, z pozoru proste pytanie o źródło danych dla prognozowanej ceny kluczowego surowca. I zapada cisza. Szybkie sprawdzenie ujawnia, że AI oparło swoją analizę na nieistniejącym indeksie rynkowym. Cała strategia legła w gruzach, a Twoja wiarygodność jako lidera zmiany została poważnie nadszarpnięta.


Brzmi jak koszmar? Niestety, w erze Generatywnej Sztucznej Inteligencji to realne ryzyko. AI, mimo swojego ogromnego potencjału, nie jest nieomylną wyrocznią. Potrafi generować przekonująco brzmiące, ale zupełnie fałszywe informacje – zjawisko to nazywamy „halucynacjami”.

Jako Ekspert i Agent Zmiany, odpowiedzialny za innowacje w dziale zakupów, stoisz przed podwójnym wyzwaniem: musisz wdrażać nowe technologie, jednocześnie gwarantując absolutną wiarygodność danych, na których opierają się strategiczne decyzje. Kluczem do sukcesu jest zrozumienie i wdrożenie fundamentalnej zasady świata danych: "Garbage In, Garbage Out" (GIGO). To nie jest ograniczenie technologii, to Twoja polisa ubezpieczeniowa.

2. Demistyfikacja "Halucynacji AI" - Dlaczego Twój Cyfrowy Ekspert fantazjuje?

Zacznijmy od kluczowej kwestii: AI nie „kłamie” złośliwie. Halucynacje to nie intencjonalne oszustwo, ale naturalna cecha działania

Dużych Modeli Językowych (LLM), takich jak te napędzające ChatGPT. Ich podstawowym zadaniem jest przewidywanie kolejnego, najbardziej prawdopodobnego słowa w sekwencji. Kiedy model nie znajduje w swoich danych treningowych jednoznacznej odpowiedzi na Twoje pytanie, zamiast przyznać się do niewiedzy, wypełnia luki, tworząc najbardziej statystycznie pasującą, spójną językowo treść.


Pomyśl o AI jak o niezwykle zdolnym, ale czasem zbyt pewnym siebie analityku. Chce za wszelką cenę dostarczyć odpowiedź, nawet jeśli musi ją zaimprowizować. W kontekście zakupów taka improwizacja może przybrać formę:

  •   Zmyślonego profilu dostawcy, który idealnie pasuje do Twojego zapytania.
  •   Nieistniejącej klauzuli prawnej, która rzekomo rozwiązuje problem w umowie.
  •   Fałszywej prognozy cenowej opartej na nieprawdziwych danych rynkowych.

a konsekwencje...

Konsekwencje podejmowania decyzji na podstawie takich „faktów” mogą być katastrofalne – od strat finansowych po poważne ryzyko prawne i operacyjne.

3. "Garbage In, Garbage Out" – Fundament wiarygodności w transformacji zakupowej

Tu dochodzimy do sedna. Zasada GIGO jest brutalnie prosta: jakość wyników generowanych przez AI jest wprost proporcjonalna do jakości danych, które jej dostarczasz. Jeśli karmisz swoje systemy śmieciowymi danymi, otrzymasz śmieciowe analizy.


Dla Ciebie, jako lidera zmagającego się z niską jakością danych, oporem organizacji i ciągłą presją czasu, ta zasada powinna być drogowskazem. Zanim zaczniesz marzyć o zaawansowanej automatyzacji zakupów B2B czy analizie wydatków z AI, musisz spojrzeć krytycznie na swoje fundamenty.

Czym są "śmieciowe dane" w Twoim świecie?

 Niespójna klasyfikacja wydatków:

Ten sam produkt kupowany od różnych dostawców jest przypisany do pięciu różnych kategorii.

Nieaktualne bazy dostawców:

Dane kontaktowe są nieprawidłowe, a oceny ryzyka sprzed dwóch lat.

Nieustrukturyzowane dane w umowach:

Kluczowe terminy, ceny i zobowiązania są ukryte w setkach stron PDF-ów, bez jednolitego formatu.

Każda próba wdrożenia AI na takim gruncie skończy się porażką. System, próbując znaleźć wzorce w chaosie, wygeneruje raporty, które będą bezużyteczne dla zarządu i wprowadzą więcej zamieszania niż porządku.

4. Twój 3-stopniowy system weryfikacji. Jak ugruntować AI w rzeczywistości?

Jak więc ujarzmić potencjał AI, unikając pułapek? Zamiast ślepo ufać, musisz stać się architektem inteligentnych procesów, w których człowiek i maszyna strategicznie współpracują. Oto pragmatyczny, 3-stopniowy framework weryfikacji danych, który możesz wdrożyć od zaraz.

Krok 1: Weryfikacja źródła (uziemienie w kontekście)

Najważniejsze pytanie brzmi: skąd AI czerpie swoją wiedzę? Jeśli korzystasz z publicznych chatbotów, ich wiedza jest szeroka, ale nie jest specyficzna dla Twojej firmy i może być nieaktualna. Złotym standardem w zastosowaniach biznesowych jest technologia RAG (Retrieval-Augmented Generation).

W uproszczeniu, system oparty na RAG, zanim wygeneruje odpowiedź, najpierw wyszukuje informacje w Twojej zaufanej, wewnętrznej bazie wiedzy (np. regulaminach zakupowych, umowach, raportach rynkowych). Dopiero na podstawie tych znalezionych faktów tworzy odpowiedź. To drastycznie redukuje ryzyko halucynacji i daje pewność, że AI mówi językiem Twojej organizacji. Narzędzia takie jak NotebookLM od Google pozwalają w prosty sposób przetestować tę koncepcję.

Krok 2: Weryfikacja danych krytycznych (Zasada Pareto w działaniu)

Wiemy, że cierpisz na ciągłą presję czasu. Weryfikowanie każdego wyniku AI jest niemożliwe. Zastosuj więc zasadę Pareto: skup się na 20% danych, które mają 80% wpływu na decyzję.

Przed podjęciem kluczowych kroków, zawsze manualnie lub za pomocą innego narzędzia zweryfikuj dane krytyczne:

Ceny jednostkowe i wolumeny w analizie oszczędności.

Kluczowe daty i terminy w harmonogramach projektów.

Dane finansowe i certyfikaty zgodności w procesie oceny ryzyka dostawców z AI.

Konkretne klauzule umowne, na które powołuje się AI.

Korzystając z narzędzi typu AI zawsze proś o źródła informacji i je sprawdzaj. 

Krok 3: Weryfikacja przez człowieka (Keep Human in the Loop)

Ostatecznie to Ty jesteś ekspertem. AI nie ma Twojego doświadczenia, intuicji ani zdolności do strategicznego myślenia. Zasada "Keep human in the loop" (utrzymaj człowieka w pętli decyzyjnej) to nie oznaka słabości technologii, ale filar jej dojrzałego wdrożenia.

Twoja nowa rola jako lidera transformacji zakupowej polega na inteligentnym delegowaniu. Pozwól AI wykonać 90% pracy analitycznej – przeszukiwanie danych, agregowanie informacji, tworzenie draftów raportów. Twój czas jest zbyt cenny na te zadania. Następnie, Ty poświęcasz swoje skupienie na ostatnie 10% – krytyczną ocenę, strategiczną interpretację i finalne zatwierdzenie. To synergia, w której technologia skaluje Twoje możliwości, a nie je zastępuje.

5. Od Agenta Zmiany do Architekta Inteligentnych Zakupów

Zasada "Garbage In, Garbage Out" to nie przekleństwo, a błogosławieństwo. Zmusza nas do czegoś, co powinniśmy robić od dawna – do dbania o higienę naszych danych. Wdrożenie AI staje się katalizatorem do uporządkowania procesów, standaryzacji i budowania jednego, wiarygodnego źródła prawdy.

Podsumowanie

Przestańmy postrzegać AI jako magiczną czarną skrzynkę. To potężne narzędzie, którego niezawodność zależy od naszej mądrości i strategicznego nadzoru. Wdrażając solidne procesy weryfikacji, zmieniasz ryzyko w szansę. Zapewniasz, że Twoje decyzje są oparte na faktach, a raporty dla zarządu – pancerne. Stajesz się nie tylko użytkownikiem technologii, ale prawdziwym architektem inteligentnych, odpornych na błędy procesów zakupowych przyszłości.

Chcesz podzielić się swoimi przemyśleniami? Śmiało, zapraszamy do dyskusji w ramach społeczności zakupowej RealSkills. Zarejestruj się i dołącz do ambitnych zakupowców, którzy współtworzą #dlakolegipytam #mowirynek i #narzedziownik.

A może chcesz sprawdzić, czy Twoja organizacja ma odpowiednie kompetencje zakupowe w zakresie myślenia analitycznego i krytycznego, czyli nieodzownego elementu wdrażania AI w zakupach? Weź udział w naszym bezpłatnym badaniu! Kliknij w poniższy link, uzupełnij badanie i odbierz swój raport!