Jakość i bezpieczeństwo
[Power of Data]. Moc (w) danych
Podstawą do uruchomienia Sztucznej Inteligencji wspomagającej proces wnioskowania i decyzyjny jest możliwość bazowania na dużej liczbie danych, których sformatowanie umożliwia połączenie ich w relacje, na podstawie których można wysnuć wnioski i przeprowadzić analizy. I jeśli nie chcemy korzystać jedynie z poziomu ogólności Chat GPT, który bazuje na ogólnodostępnych w sieci publikacjach a wykorzystać nasze dane (i dodaje od siebie brakujące historie, zamiast poinformować, że nie ma wystarczających informacji), to bez zainwestowania w obszar przygotowania nie ma co mówić o następnych krokach, czyli wykorzystaniu Big Data i AI.
Od kilku lat obserwuję, że pomimo wdrożenia oprogramowania do monitorowania parametrów produkcji, OEE, pomiarów laboratoryjnych w postaci cyfrowej, zakres korzystania z danych jest bardzo ograniczony (z reguły do wizualizacji, podglądu „online” oraz szybszego reagowania na przekroczenia). W świecie jakościowym bywa jeszcze trudniej, ponieważ nie zawsze znajdują się środki finansowe na wdrażanie nowoczesnych narzędzi. Jesteśmy świetni w produkowaniu dziesiątek kilogramów (papierowo) i terabajtów (cyfrowo) danych (jak ktoś ma wątpliwości, że mówię prawdę, polecam wybrać się do archiwum jakościowego lub badań i rozwoju w Państwa firmie), których nikt nie czyta, a na pewno nie analizuje. W tych zebranych kilogramach danych jest mnóstwo przydatnych i wartościowych informacji, które można wykorzystać do precyzyjnych decyzji, obniżenia kosztów i optymalizacji procesów. Dane otrzymujemy z różnych źródeł:
- wyniki badań w procesie Badań i Rozwoju (stabilność, kompatybilność, fizykochemia etc.),
- Certyfikaty Analityczne (CoA), kontrola wejściowa surowców i opakowań,
- wyniki procesowe (naważanie, mieszanie, napełnianie i konfekcja), parametry ciśnienia, temperatury, przepływu etc.,
- wyniki walidacji mycia i sanityzacji, walidacja napełniania etc.,
- wyniki badań środowiskowych,
- wyniki statystycznych kontroli wyrobu gotowego (parametry fizykochemiczne, mikrobiologia, sensoryka),
- reklamacje od klientów/konsumentów – ponowna analiza próbek archiwalnych.
Te dane, po zestawieniu ze sobą, dają niesamowitą wiedzę o produkcie, procesie i ewentualnych trendach, które mogą nam pomóc podjąć właściwą decyzję, zanim coś poważnego zdarzy się na naszej linii produkcyjnej, uderzając w naszą organizację.
Łączenie źródeł i przetwarzanie danych
Obecnie mamy prawie nieograniczoną możliwość automatycznego połączenia danych z wielu źródeł poprzez protokoły i interfejsy. Czy to z urządzeń laboratoryjnych, mierników w procesie (termometry, manometry, zawory, pompy, czujniki przepływu, poziomu, a nawet systemy wizyjne), czy bardziej tradycyjnych – komputerów i tabletów, które pozwalają nam wykorzystać zdefiniowany protokół do zbierania danych. Połączenie urządzeń w system pozwala na jednoczesne i centralne wykorzystanie danych.
Rys. 1. Przykładowe powiązania danych i centralna baza przetwarzania
Usystematyzowanie danych pozwala na ustalenie granic kontrolnych, ustawienie alarmów w celu skrócenia czasu reakcji na parametr poza kontrolą i ograniczenie potencjalnych strat i defektów.
Poza tym możemy, do czego zachęcam, wizualizować dane, wprowadzić raportowanie poprzez nadzór w trybie „live” (na przykład dla liderów/brygadzistów/jakościowców) oraz raportowanie w trybie wykresów i dashboardów dla menedżerów wyższego szczebla zarządzania. Można tu wykorzystać sformatowane ogólnodostępne narzędzia typu „Power BI”.
Aktualności i ich analiza
Jeśli już mamy usystematyzowane dane, możemy wejść na kolejny poziom zaawansowania, czyli analizy predyktywne. Bo po co reagować dopiero, gdy „mleko się rozleje” i kluczowy parametr procesu bądź produktu wyjdzie nam poza granicę specyfikacji czy bezpiecznego poziomu? Ustawienie limitów kontrolnych pozwala na uruchomienie procesu korekty po dotarciu do granicy, która jest jeszcze bezpieczna i pozawala na reakcję. Warto korzystać z systemów SPC (Statystycznej Kontroli Procesu) i współczynników zdolności procesu Cp, Cpk, Pp, Ppk, oraz ustalenia granic tolerancji oraz kontrolnych LTL, UTL, LCL, UCL.
Dla bardziej złożonych parametrów (gdzie ustanowienie kontroli statystycznej SPC nie jest możliwe albo opłacalne), warto poddawać analizie Aktualności. Analiza trendów może mieć zastosowanie przy reklamacjach jakościowych z rynku, gdy szukamy, czy produkt z danym defektem, którego nie wykryliśmy przed wprowadzeniem na rynek, ale znamy go z reklamacji, jest wyjątkiem, czy problem jest szerszy. Analiza trendu przydaje się też przy analizie poziomu nalewu lub wagi komponentów produkowanych wtryskowo – gdy trend parametrów może świadczyć o zużyciu urządzenia lub problemów z przepływem produktu/materiału w instalacji, którą trzeba rozmontować i doczyścić lub wymienić niedziałające grzałki czy uszkodzoną pompę. Analiza trendu, poza wartościowymi danymi jakościowymi, pozwala nierzadko zaoszczędzić istotne zasoby. Jeśli zauważymy, że nasz produkt jest zgodny z oznaczeniem e (w zakresie deklarowanej objętości/masy), ale trend nalewania jest wzrostowy, to – zwłaszcza u producentów żywnościowych – warto zareagować, aby nie powodować niepotrzebnych strat spowodowanych przepełnianiem produktu. Wczesna informacja o wzrostach mikrobiologicznych na podstawie analizy trendów badań środowiskowych pozwoli nam w odpowiednim czasie podjąć decyzję o myciu i dezynfekcji linii i uniknąć przedostania się drobnoustrojów do wyrobu gotowego i ich rozwoju.
Rys. 2. Przykłady wizualizacji trendów w analizie reklamacji – geograficzne – zmiana procentowa względem poprzedniego okresu oraz trend dla jednej kategorii produktów (Power BI)
Trzecim obszarem, o którym warto wspomnieć jest wykorzystanie analizy danych poprzez korelacje. Ta analiza jest możliwa, gdy już dość dobrze znamy proces i jesteśmy w stanie mapować i rozumieć wzajemne zależności między parametrami. Dzięki temu możemy oszczędzić zasoby, badając mniejszą liczbę parametrów, jeśli umiemy zwalidować, potwierdzić korelacje z innymi ważnymi parametrami (na przykład kontrola procesu pasteryzacji jest możliwa procesowo, bez drogich testów mikrobiologicznych, jeśli znamy instalację, przepływ przez pasteryzator, temperatury, powierzchnię kontaktu produktu ze ściankami, reologię produktu itd.).
Rozwiązania techniczne
Na koniec słowo o rozwiązaniach technicznych. Większość sprzętu kontrolno-pomiarowego ma już odpowiednie procesory i wtyczki pozwalające na transfer danych surowych. Dodatkowo, dostępność niedrogich tabletów i komputeryzacja stanowisk laboratoryjnych sprawia, że można zupełnie wyeliminować papier. Często wyzwaniem jest odpowiednie okablowanie lub stabilny transfer WiFi – który w zakładach produkcyjnych bywa jeszcze problematyczny. Jednak możliwość gęstszego pakowania danych i ich przesyłu rośnie w tempie wykładniczym, więc ograniczenia techniczne nie powinny być już wyzwaniem. Poza tym, warto jest zatrudnić wykwalifikowany dział lub dostawcę IT. Odpowiednie zabezpieczenie danych i ich archiwizacja albo w walidowanych rozwiązaniach „w chmurze”, albo hybrydowym rozwiązaniu z własnym archiwum serwerowym, z podwójnym zabezpieczeniem przed utratą danych pozwoli na zabezpieczenie przed ich utratą. Równie ważne jest zabezpieczenie przed ingerencją hakerską. Warto rozważyć systemowe albo nawet sprzętowe odseparowanie sieci zbierania i magazynowania danych od zewnętrznych połączeń internetowych, które mogą nie być odpowiednio zabezpieczone przed atakiem internetowych terrorystów.
Rozwiązania techniczne i informatyczne obecne na rynku pozwalają na wykorzystanie wartości zawartej w danych jak nigdy dotąd. Według instytutu Gartnera, do 2026 roku osiągniemy punkt, w którym w największych firmach farmaceutycznych identyfikacja nowych molekuł poprzez metodę „in silico”, czyli symulację cyfrową z wykorzystaniem AI (sztucznej inteligencji), przekroczy procentowo zastosowanie tradycyjnych badań laboratoryjnych. Pracuje nad tym m.in. polska firma technologiczna Molecule.one. Przemysł kosmetyczny nie jest jeszcze na tym etapie, ale już teraz pojawiają się rozwiązania wspierane sztuczną inteligencją w badaniach nowych produktów. Z kosmetycznego podwórka, inżynierowie z Google Brain wykorzystali do badania molekuł zapachowych grafowe sieci neuronowe (GNN – rodzaj głębokiej sieci neuronowej zaprojektowanej do działania na wykresach jako danych wejściowych). Stworzono narzędzie do bezpośredniego przewidywania charakterystyk zapachów dla poszczególnych cząsteczek, bez stosowania tradycyjnych metod porównywania i identyfikacji zapachu. Potencjalne zastosowanie to projektowanie nowych, syntetycznych molekuł zapachowych, które są tańsze, bo nie wymagają wielu prób przed ostateczną kwalifikacją i mogą zostać wyprodukowane w sposób bardziej zrównoważony (nie eksploatując nadmiernie przyrody w celu pozyskania kompozycji).
Aby skutecznie zastosować coraz lepiej i powszechniej funkcjonującą sztuczną inteligencję, należy postawić pierwszy krok, czyli zrozumieć moc danych, którymi dysponujemy, połączyć je w sieć, odpowiednio sformatować i zacząć mierzyć, analizować, aby rozwijać wiedzę i stwarzać możliwości do optymalizacji i podejmowania właściwych decyzji zarządczych.
Źródła:
https://ai.googleblog.com/2019/10/learning-to-smell-using-deep-learning.html
………………………………………………………………………………………..
Autor: Paweł Frydrych
Global Quality Director
Oriflame Poland
Artykuł został opublikowany w kwartalniku "Świat Przemysłu Kosmetycznego" 3/2023