AI w Zakupach: Uwaga, Twój nowy asystent potrafi kłamać.
1. Jak zasada "Garbage In, Garbage Out" chroni Cię przed kosztownymi błędami?
Wyobraź sobie scenariusz: jesteś w trakcie kluczowego spotkania z zarządem. Prezentujesz właśnie raport dotyczący optymalizacji kosztów w kluczowej kategorii, wygenerowany przy pomocy AI. Analiza jest błyskotliwa, wnioski rewolucyjne, a potencjalne oszczędności idą w miliony. Wtem Prezes Finansów zadaje jedno, z pozoru proste pytanie o źródło danych dla prognozowanej ceny kluczowego surowca. I zapada cisza. Szybkie sprawdzenie ujawnia, że AI oparło swoją analizę na nieistniejącym indeksie rynkowym. Cała strategia legła w gruzach, a Twoja wiarygodność jako lidera zmiany została poważnie nadszarpnięta.

Brzmi jak koszmar? Niestety, w erze Generatywnej Sztucznej Inteligencji to realne ryzyko. AI, mimo swojego ogromnego potencjału, nie jest nieomylną wyrocznią. Potrafi generować przekonująco brzmiące, ale zupełnie fałszywe informacje – zjawisko to nazywamy „halucynacjami”.
2. Demistyfikacja "Halucynacji AI" - Dlaczego Twój Cyfrowy Ekspert fantazjuje?

Zacznijmy od kluczowej kwestii: AI nie „kłamie” złośliwie. Halucynacje to nie intencjonalne oszustwo, ale naturalna cecha działania
Dużych Modeli Językowych (LLM), takich jak te napędzające ChatGPT. Ich podstawowym zadaniem jest przewidywanie kolejnego, najbardziej prawdopodobnego słowa w sekwencji. Kiedy model nie znajduje w swoich danych treningowych jednoznacznej odpowiedzi na Twoje pytanie, zamiast przyznać się do niewiedzy, wypełnia luki, tworząc najbardziej statystycznie pasującą, spójną językowo treść.
Pomyśl o AI jak o niezwykle zdolnym, ale czasem zbyt pewnym siebie analityku. Chce za wszelką cenę dostarczyć odpowiedź, nawet jeśli musi ją zaimprowizować. W kontekście zakupów taka improwizacja może przybrać formę:
- Zmyślonego profilu dostawcy, który idealnie pasuje do Twojego zapytania.
- Nieistniejącej klauzuli prawnej, która rzekomo rozwiązuje problem w umowie.
- Fałszywej prognozy cenowej opartej na nieprawdziwych danych rynkowych.
a konsekwencje...
3. "Garbage In, Garbage Out" – Fundament wiarygodności w transformacji zakupowej
Tu dochodzimy do sedna. Zasada GIGO jest brutalnie prosta: jakość wyników generowanych przez AI jest wprost proporcjonalna do jakości danych, które jej dostarczasz. Jeśli karmisz swoje systemy śmieciowymi danymi, otrzymasz śmieciowe analizy.
Czym są "śmieciowe dane" w Twoim świecie?
Niespójna klasyfikacja wydatków:
Nieaktualne bazy dostawców:
Nieustrukturyzowane dane w umowach:
Każda próba wdrożenia AI na takim gruncie skończy się porażką. System, próbując znaleźć wzorce w chaosie, wygeneruje raporty, które będą bezużyteczne dla zarządu i wprowadzą więcej zamieszania niż porządku.
4. Twój 3-stopniowy system weryfikacji. Jak ugruntować AI w rzeczywistości?
Jak więc ujarzmić potencjał AI, unikając pułapek? Zamiast ślepo ufać, musisz stać się architektem inteligentnych procesów, w których człowiek i maszyna strategicznie współpracują. Oto pragmatyczny, 3-stopniowy framework weryfikacji danych, który możesz wdrożyć od zaraz.
Krok 1: Weryfikacja źródła (uziemienie w kontekście)
Najważniejsze pytanie brzmi: skąd AI czerpie swoją wiedzę? Jeśli korzystasz z publicznych chatbotów, ich wiedza jest szeroka, ale nie jest specyficzna dla Twojej firmy i może być nieaktualna. Złotym standardem w zastosowaniach biznesowych jest technologia RAG (Retrieval-Augmented Generation).
W uproszczeniu, system oparty na RAG, zanim wygeneruje odpowiedź, najpierw wyszukuje informacje w Twojej zaufanej, wewnętrznej bazie wiedzy (np. regulaminach zakupowych, umowach, raportach rynkowych). Dopiero na podstawie tych znalezionych faktów tworzy odpowiedź. To drastycznie redukuje ryzyko halucynacji i daje pewność, że AI mówi językiem Twojej organizacji. Narzędzia takie jak NotebookLM od Google pozwalają w prosty sposób przetestować tę koncepcję.

Krok 2: Weryfikacja danych krytycznych (Zasada Pareto w działaniu)
Wiemy, że cierpisz na ciągłą presję czasu. Weryfikowanie każdego wyniku AI jest niemożliwe. Zastosuj więc zasadę Pareto: skup się na 20% danych, które mają 80% wpływu na decyzję.
Przed podjęciem kluczowych kroków, zawsze manualnie lub za pomocą innego narzędzia zweryfikuj dane krytyczne:
Ceny jednostkowe i wolumeny w analizie oszczędności.
Kluczowe daty i terminy w harmonogramach projektów.
Dane finansowe i certyfikaty zgodności w procesie oceny ryzyka dostawców z AI.
Konkretne klauzule umowne, na które powołuje się AI.
Krok 3: Weryfikacja przez człowieka (Keep Human in the Loop)
5. Od Agenta Zmiany do Architekta Inteligentnych Zakupów

Zasada "Garbage In, Garbage Out" to nie przekleństwo, a błogosławieństwo. Zmusza nas do czegoś, co powinniśmy robić od dawna – do dbania o higienę naszych danych. Wdrożenie AI staje się katalizatorem do uporządkowania procesów, standaryzacji i budowania jednego, wiarygodnego źródła prawdy.
Podsumowanie
Chcesz podzielić się swoimi przemyśleniami? Śmiało, zapraszamy do dyskusji w ramach społeczności zakupowej RealSkills. Zarejestruj się i dołącz do ambitnych zakupowców, którzy współtworzą #dlakolegipytam #mowirynek i #narzedziownik.
A może chcesz sprawdzić, czy Twoja organizacja ma odpowiednie kompetencje zakupowe w zakresie myślenia analitycznego i krytycznego, czyli nieodzownego elementu wdrażania AI w zakupach? Weź udział w naszym bezpłatnym badaniu! Kliknij w poniższy link, uzupełnij badanie i odbierz swój raport!
Strony
Warunki użytkowania
Zapraszamy do kontaktu!
RealSkills© Wszelkie prawa zastrzeżone
Ciekawe? Umów swoje demo!
poszukamy wspólnego terminu!