Firmy coraz częściej deklarują zainteresowanie sztuczną inteligencją, ale realna gotowość do jej wdrożenia wciąż jest rzadkością. AI to narzędzie, którego skuteczność w 100% zależy od jakości i spójności danych, jakie dostarczymy.
Tymczasem większość organizacji funkcjonuje na informacyjnym patchworku: CRM w jednym miejscu, ERP w drugim, operacje w Excelach, wiedza ekspercka w mailach,
a kluczowe informacje w wielu nieaktualnych wersjach dokumentów. W takim środowisku żaden model -nawet najlepszy, nie będzie działał przewidywalnie ani bezpiecznie.
Poniższy odcinek, porządkuje bałagan informacyjny wokół sztucznej inteligencji. Jeśli chcesz wdrożyć AI mądrze, bezpiecznie i z realnym efektem biznesowym zacznij tutaj.
Porozmawiajmy dobierając model i architekturę, które będą w pełni pod Twoją kontrolą.
PorozmawiajmyKażdy dziś mówi o AI-u, ale prawda jest taka, że większość firm nie do końca wie, jak sprawić, żeby ta technologia faktycznie działała na ich korzyść. Bo sztuczna inteligencja nie działa sama z siebie, trzeba ją zasilić odpowiednimi danymi. A żeby robić to bezpiecznie, trzeba też dokładnie wiedzieć, gdzie te dane są przechowywane i kto ma do nich dostęp. I właśnie o tym dziś opowiem, czyli jak wdrożyć AI w firmie bez ryzyka utraty poufnych danych i z realnym biznesowym efektem. A jeśli interesują Cię takie praktyczne spojrzenia na technologie w biznesie, zasubskrybuj ten kanał, bo takich tematów będzie u nas coraz więcej. Kanał IT i Biznes prowadzi firma Innovation. Rozwiązania technologiczne dopasowane do Twojego biznesu, ze wsparciem zewnętrznego dyrektora IT. Zapraszam, Grzegorz Tabor. W tym odcinku porządkujemy tak naprawdę temat wdrożeń AI w firmach. Nie będę mówił o trendach, tylko już konkretnie. Jak architektura ma sens, jak podejść do danych, jak uniknąć ryzyk prawnych, jak to zorganizować, żeby faktycznie dowieźć wartość dla biznesu. Zacznijmy od pierwszej i kluczowej kwestii, jak wykorzystać AI i jakie warunki musimy spełnić, żeby wyciągnąć z niego wartość. Przede wszystkim musimy zrozumieć, że AI nie działa w próżni. Jego efektywność zależy w dużej mierze od jakości danych, którymi je zasilimy. Jest nawet takie powiedzenie garbage in, garbage out, czyli generalnie jeżeli będziemy wrzucać dane niewłaściwe na początku, czy błędne, czy po prostu w cudzysłowie śmieciowe, to to samo będziemy uzyskiwać na końcu.
Firmy często mają dane w różnych miejscach kompletnie rozproszone. Trochę w CRM, trochę w ERP, trochę w Excelach, trochę w systemie magazynowym, trochę w mailach, a trochę nawet w jakichś notatkach pisanych odręcznie np. w zeszycie. W efekcie AI nie do końca wie i nie do końca ma się na czym oprzeć. Jeśli chcemy, żeby model dawał trafne rekomendacje np. produktów dla klientów, musimy zapewnić mu spójne, czyste i aktualne dane. Bez tego nie ma sensu tak naprawdę mówić o wdrożeniu sztucznej inteligencji dopasowanej do organizacji, bo model językowy po prostu nie będzie miał z czego wyciągać wniosków.
Najprostszy sposób na rozpoczęcie pracy z AI to integracja np. przez API OpenAI. To dobre rozwiązanie na etapie testów albo tzw. proof of concept, czyli weryfikacji, czy ten AI to faktycznie jest dla nas w tym konkretnym miejscu. Trzeba mieć świadomość, że dane w takim scenariuszu będą przetwarzane przez zewnętrznego dostawcę, przez OpenAI. To z kolei oznacza, że nie powinniśmy, czy też nie możemy przekazywać informacji poufnych, danych osobowych, czy też dokumentów finansowych. To nie jest kwestia zaufania do firmy, że to konkretnie problem OpenAI, tylko w ogóle świadomości, że nie mamy pełnej kontroli nad tym, gdzie i jak te dane są przechowywane, szczególnie jeżeli bierzemy pod uwagę zewnętrznych dostawców. I tutaj dochodzimy do tego kluczowego tematu, czyli do bezpieczeństwa danych.
Bo jeśli chcemy AI wdrażać zgodnie z prawem i zdrowym rozsądkiem, do którego tutaj serdecznie zachęcam, to dane powinny być przechowywane na naszych własnych serwerach albo w chmurze, ale wynajętej przez nas. I to właśnie tam powinna znajdować się ta baza wiedzy, którą zasilamy model, czyli ten tzw. rak, czyli to miejsce, z którego AI faktycznie czerpie informacje, na podstawie których dla nas przetwarza i zwraca jakieś informacje. Dzięki temu model wie, jak działa nasza firma, ale jednocześnie nie wysyła żadnych informacji na zewnątrz, do zewnętrznych firm, które nie mamy wpływu na ich działanie. Najbezpieczniejszy scenariusz to taki, w którym model działa lokalnie, na serwerze, który kontrolujemy również co do jego lokalizacji, miejsca i działania. Tylko do tego jest potrzebna moc obliczeniowa, czyli po prostu dobry GPU, czyli tak zwana karta graficzna, czy karty graficzne. I na takim środowisku można uruchomić model językowy całkowicie odizolowany od środowiska zewnętrznego. Są do tego specjalne rozwiązania, takie jak np. VLLM, czy np.OLAMA, które pozwalają uruchamiać modele lokalnie we własnej infrastrukturze. Dla firm, które chcą wdrażać AI w obszarach strategicznych, zdecydowanie lepszym rozwiązaniem są te lokalne czy prywatne modele językowe. Dzięki temu mamy pełną kontrolę, to znaczy wiemy gdzie dane są przechowywane, kto ma do nich dostęp i jak są one zabezpieczone.
Jednak z biznesowego punktu widzenia nie zawsze trzeba inwestować we własny sprzęt, bo dostępna jest też opcja wynajmu mocy obliczeniowej, czyli takie GPU na godzinę, czyli taka karta graficzna na godziny, bo to ona dobrze wspiera pokrycie na moc obliczeniową potrzebną dla modeli językowych. Stąd akurat karta graficzna, a nie np. procesor, tak by się mogło wydawać. I wtedy model działa tylko wtedy właśnie, gdy faktycznie go potrzebujemy, np. podczas analizy danych, tworzenia raportów, czy generowania rekomendacji. Taka wersja na serwerze zdalnym mimo wszystko może być odcięta od internetu i mieć dostęp wyłącznie do naszej infrastruktury, czy działać tylko w naszej infrastrukturze sieciowej. Dzięki temu minimalizujemy ryzyko wycieku danych praktycznie do minimum, bo to my jesteśmy właścicielem tego modelu, który stawiamy na tych serwerach, natomiast te serwery odpinamy w całości od dostępu do internetu, wpinamy tylko w naszą sieć firmową i tylko tam one funkcjonują. Dzięki takiemu podejściu będzie ono polecane z pewnością dla firm, które nie chcą kupować drogiego sprzętu, ale jednocześnie potrzebują pełnej kontroli nad tym, jak przetwarzane są ich dane, po prostu.
I do tego można wykorzystać tak naprawdę różne modele językowe, do tego działania takiego lokalnego, czy na tym wynajętym GPU na godzinę. Nie tylko te komercyjne jak GPT, ale też otwarte modele, takie jak Liama, czy na przykład Bielik, który jest w ogóle polskim modelem językowym, który notabene coraz lepiej radzi sobie z analizą danych w naszym rodzimym języku. Jest to ciekawa alternatywa, bo pozwala korzystać z AI w pełni lokalnie, bez przekazywania czegokolwiek na zewnątrz. Lokalnie mam na myśli w infrastrukturze firmowej, która jest odpowiednio, zakładam, zabezpieczona. I teraz, skoro już wiemy, że dane powinny być przechowywane po naszej stronie, warto zrozumieć, jak w praktyce wygląda ich przygotowanie do pracy z AI. No bo ten RAC, ta cała infrastruktura, czyli ta wspomniana baza wiedzy dla AI, ona oczywiście nie powstaje automatycznie. Trzeba ją odpowiednio zbudować i budować na bieżąco, a to oznacza kilka kroków.
Po pierwsze, zaczynamy od zebrania wszystkich źródeł informacji, które mogą być dla firmy ważne. Wszelkiego rodzaju dostępy do dokumentów, do różnych maili, do ofert, do instrukcji, czy też do bazy wiedzy z internetu, jeśli jakaś była zbierana. Może do zapytań z helpdesku, a może do informacji produktowych. Do wszelkich, którymi chcemy karmić tego naszego jaja, żeby on nam zwrotnie dawał jakąś informację. Następnie przychodzi etap porządkowania i czyszczenia tych danych. Usuwamy wszelkiego rodzaju duplikaty, stare wersje, ujednolicamy formaty i uzupełniamy brakujące informacje, takie jak różnego rodzaju daty utworzenia, czy na przykład poziomy poufności.
I w kolejnym kroku AI nie uczy się już całych dokumentów, tylko przetwarza ich treści na tak zwane embeddingi, czyli takie matematyczne odwzorowanie znaczenia tekstu. Tak to można w dużym uproszczeniu powiedzieć, chociaż to może być lekkie nadszarpnięcie. Natomiast w praktyce można to porównać do stworzenia takiej mapy, na której każde zdanie, czy każdy fragment tekstu ma taki swój unikalny adres, czy też token. Dzięki temu, kiedy zadasz pytanie, model potrafi znaleźć dokładnie ten fragment wiedzy, który odpowiada na twoje zapytanie, nawet jeśli użyłeś innych słów. Tak powstaje indeks wektorowy, czyli takie uporządkowanie w bazie wiedzy firmy, z której korzysta AI, tak w dużym uproszczeniu mówiąc. Czyli np. jeśli zapytasz system o rabaty dla stałych klientów, to on znajdzie też dokumenty, w których jest mowa o zniżkach lojalnościowych, no bo rozumie ten kontekst, jakby rabatowania, obniżania ceny. Dodatkowo możemy nakładać filtry, żeby wyniki były jeszcze bardziej trafne, bo to już zależy od interfejsu. Pamiętajmy, że ten AI, zasilony różnymi danymi, może nam wystawiać interfejs dla użytkownika taki tak naprawdę, jak będziemy chcieli.
Czyli możemy tam mieć możliwość filtrowania np. dokumentów tylko z działu sprzedaży, albo tylko tych dostępnych z ostatnich 12 miesięcy, albo tylko w określonym języku, albo tylko zatwierdzonych wersji, albo jeszcze jakikolwiek inny sposób, np. produkty rekomendowane dla klienta sklepu e-commerce, czy np. rekomendacja kontaktu z klientem z CRM-a, który aktualnie prawdopodobnie może być zainteresowany jakimś zakupem znanej firmy. To są te miejsca, gdzie można to dobrze wykorzystać w firmie. I dzięki temu, że tak do tego podchodzimy, AI nie zmyśla odpowiedzi, tylko odwołuje się do realnych, wiarygodnych danych, którymi go nakarmiliśmy. A to właśnie z reguły eliminuje to, czego większość firm się obawia, czyli tzw. halucynacje, czyli sytuacje, gdy model wymyśla coś, czego nie ma w danych. W praktyce ten RAC działa więc jak taka inteligentna baza wiedzy firmowej bez ryzyka, że te dane wyjdą gdzieś na zewnątrz.
I teraz najważniejsze pytanie, które często pojawia się na tym etapie, to gdzie w ogóle w firmie warto wdrażać tego AI-a? No bo mamy już infrastrukturę, wiemy jak to zrobić bezpiecznie, teraz gdzie tego AI-a wdrożyć? I pamiętajcie, że zanim zaczniemy rozmyślać jak wdrożyć AI, trzeba odpowiedzieć sobie na dużo prostsze pytanie, a jednocześnie niekoniecznie łatwe. W jakich procesach ta technologia może faktycznie przynieść wartość w twoim biznesie? I dlatego właśnie zawsze pierwszy krok to jest co? Cel biznesowy. Co chcesz osiągnąć dzięki wdrożeniu tego AI-a? Może się okazać, że wcale nie potrzebujesz AI-a, żeby to osiągnąć, ale to jest temat na zupełnie inny odcinek. I może się też okazać, że po prostu chcesz usprawnić procesy. Więc druga kwestia to mapa tych procesów. Czyli trzeba zwizualizować, narysować to, co chcesz usprawnić, zanim zaczniesz to usprawniać. Czyli przejrzeć całą organizację pod kątem tego, gdzie faktycznie pojawiają się jakieś powtarzalne decyzje, analizy czy interakcje z danymi. I tego typu mapa procesów pozwala zobaczyć, gdzie rzeczywiście powstaje wartość biznesowa z tego wdrożenia AI-a, a gdzie to będzie tylko miły dodatek i niekoniecznie nawet używany.
Bo wbrew pozorom nie każde wdrożenie AI-a musi oznaczać automatyzację. Czasem wystarczy, że model skróci czas analizy danych albo wskaże kierunek działania, albo podpowie dane, albo po prostu pozwoli szybciej jakieś dane odnaleźć. I szczerze mówiąc, możliwości wykorzystania AI w firmach jest dziś naprawdę wiele. I z drugiej strony patrząc, bardzo rzadko widać konkretne wdrożenia AI-a. Z kolei odpowiednio wdrożone potrafi przynieść bardzo konkretne efekty, zarówno finansowe, jak i czasowe.
Myślę, że największym wyzwaniem tutaj nie jest już samo wdrożenie wbrew pozorom, ale to odkrycie, w których obszarach AI-a wniesie największą wartość. I to tutaj ogromną różnicę robi obecność osoby, która potrafi połączyć te kompetencje biznesowe i technologiczne. Takiej osoby, która nie patrzy na AI-a jak na nową fancy zabawkę do wdrożenia, tylko rozumie procesy, liczby i wpływ na wyniki firmy. I taka perspektywa bardzo często pokazuje nowe kierunki, czy coś, co dla zespołu wydaje się stałym, oczywistym elementem procesu, dla osoby z zewnątrz może być idealnym miejscem na zastosowanie sztucznej inteligencji. Czasem jedno takie spojrzenie potrafi przewrócić sposób myślenia o firmie i pokazać, że ta automatyzacja, to wdrożenie np. AI-a w obszarze analizy nie musi być rewolucją, tylko wystarczy dobrze wybrany punkt startowy i dobrze zdefiniowany efekt końcowy, który obie strony, i wdrożniowiec, i klient rozumieją w dokładnie taki sam sposób.
Trzecim krokiem, zaraz po mapie procesów, jest analiza ryzyk, która idzie w parze z tą mapą procesów. Tutaj określamy sobie, które dane są poufne, kto ma do nich dostęp, gdzie są przechowywane i jakie konsekwencje miałby ich wyciek. Dzięki tego typu analizie możemy świadomie wybrać sposób wdrożenia. Jeżeli w danym procesie nie ma danych osobowych, ani danych wrażliwych, to można śmiało korzystać z dostawców zewnętrznych, to będzie szybki i prosty start. Ale jeśli mamy do czynienia z danymi klientów, umowami, projektami, czy danymi finansowymi, czy innymi danymi wrażliwymi, wtedy jedynym rozsądnym kierunkiem jest AI działające lokalnie, w środowisku prywatnym, w tym w pełni kontrolowanym przez firmę.
A jeżeli czujesz, że w twojej firmie jest przestrzeń, w której AI mogłoby realnie pomóc, albo chcesz wdrożyć AI, tylko jeszcze nie do końca wiesz gdzie i jak to zrobić, śmiało napisz. Zobaczymy wspólnie, w których procesach AI może przynieść konkretne korzyści, jak może wspierać cele biznesowe twojej organizacji. Dzięki za wysłuchanie i obejrzenie dzisiejszego odcinka i do zobaczenia za tydzień. Cześć.


Dołącz do newslettera i otrzymuj regularne porcje wiedzy o technologii, biznesie i strategiach, które pomogą Ci rozwijać firmę. Zero spamu – tylko konkretne wskazówki, inspiracje i nowości z podcastu.