Ekspert ds. cyberbezpieczeństwa Janusch Skubatz, dyrektor ds. bezpieczeństwa informacji w Grupie EOS, w brązowych włosach i białej koszuli.
  • Generatywna sztuczna inteligencja oferuje ogromne możliwości.
  • Spółka macierzysta EOS, Otto Group, opracowała bezpieczne narzędzie dostosowane do potrzeb firmy.
  • Jej zastosowanie oferuje również korzyści w sektorze zarządzania należnościami o szczególnie wysokich standardach.
To była nieprzyjemna wiadomość dla kierownictwa koncernu elektronicznego Samsung. Wiosną 2023 roku w Internecie nagle pojawiły się notatki z wewnętrznych spotkań i dane dotyczące wydajności zakładów produkcyjnych. Winowajcami nie byli hakerzy, ale pracownicy firmy, którzy korzystali z generatywnej sztucznej inteligencji. Jeden z pracowników użył ChatGPT, aby przekształcić swoje notatki ze spotkania w gotowy dokument, nie zdając sobie sprawy, że darmowa wersja asystenta AI zapisywała wszystkie informacje z podpowiedzi użytkowników - i wykorzystywała je do poszerzania swojej wiedzy.

Przykład, który pokazuje, że inteligencja generatywna niesie ze sobą również zagrożenia, takie jak niewystarczająca świadomość pracowników na temat luk w zabezpieczeniach, brak firmowych wytycznych czy nowe możliwości ataku dla hakerów. W globalnym badaniu przeprowadzonym przez firmę konsultingową McKinsey, 53% wszystkich uczestników, którzy pracowali już z generatywną sztuczną inteligencją, uznało cyberbezpieczeństwo za największe ryzyko związane z nową technologią.

W ten sposób wiele firm postrzega cyberbezpieczeństwo jako największy problem:

PowiększeniaPowiększenia
Grafika z liczbą 53 procent pokazuje, jak wiele firm uważa cyberbezpieczeństwo za swój największy problem.
Źródło: McKinsey Global Survey on AI, 2023, "The state of AI in 2023: Przełomowy rok generatywnej sztucznej inteligencji"

Bezpieczne podejście do generatywnej sztucznej inteligencji

Jednocześnie generatywna sztuczna inteligencja oferuje firmom ogromny potencjał w zakresie zwiększania ich wydajności i innowacyjności. Firma Otto Group szukała zatem sposobu na wykorzystanie możliwości oferowanych przez tę technologię - przy jednoczesnym ograniczeniu ryzyka. Pod nazwą ogGPT, spółka macierzysta EOS opracowała własną generatywną sztuczną inteligencję dla 26 000 pracowników Grupy. "Chcieliśmy stworzyć rozwiązanie dostosowane do własnych potrzeb naszej Grupy z naciskiem na bezpieczeństwo i ochronę danych" - mówi Anja Körber, dyrektor działu sztucznej inteligencji i automatyzacji w Otto Group IT. Oparta na opłatach wersja Chat GPT dla przedsiębiorstw nie wchodziła w grę – mimo, że ten asystent AI nie przechowuje informacji z podpowiedzi. "Serwery znajdują się w USA", mówi Anja. "Oznacza to, że w razie wątpliwości lokalni pracownicy, na przykład z działu wsparcia, mieliby dostęp do danych. A europejskie standardy, takie jak RODO, nie mają zastosowania w USA".

Tylko tyle firm ma wytyczne dotyczące korzystania ze sztucznej inteligencji:

PowiększeniaPowiększenia
Grafika z 21 procentami pokazuje, ile firm ma politykę dotyczącą sztucznej inteligencji.
Źródło: McKinsey Global Survey on AI, 2023, "The state of AI in 2023: Przełomowy rok generatywnej sztucznej inteligencji"
Badanie przeprowadzone przez firmę konsultingową McKinsey wyraźnie pokazuje, że istnieje luka w zakresie wytycznych. Otto Group zajęła się już tą kwestią, również w imieniu swoich podmiotów stowarzyszonych. W ciągu dwóch miesięcy pracownicy Otto Group nie tylko opracowali wytyczne dotyczące sztucznej inteligencji, ale także poszczególne elementy składowe ogGPT w różnych projektach i hackathonach. Zaowocowało to podstawową strukturą, która aktualizuje swoją wiedzę - w tym za pomocą danych z Internetu - ale nadal jest bezpieczna, wyjaśnia Anja: "ogGPT zapomina o podpowiedziach. Mamy pełną kontrolę nad danymi".

Unikalną zaletą ogGPT jest jednak nie tylko bezpieczeństwo. "Chcieliśmy funkcji, które odpowiadają naszym wymaganiom", mówi Anja. Na przykład asystent AI może podsumować treść długiego wątku e-mail. ogGPT jest już także używany do pisania newslettera: podczas gdy jego czytelnicy otrzymywali wcześniej tylko nagłówki, które łączyły się z dalszymi treściami, teraz mogą znaleźć kompaktowe podsumowania treści. Jest to znaczące usprawnienie, którego ręczne wykonanie byłoby zbyt czasochłonne.
Portrait of the female expert Anja Koerber, Head of Artificial Intelligence & Automation in the Otto Group, with a braid and blazer.

Chcieliśmy stworzyć rozwiązanie, które byłoby dostosowane do potrzeb naszej Grupy z naciskiem na bezpieczeństwo i ochronę danych.

Anja Körber
Dyrektor ds. sztucznej inteligencji i automatyzacji, Grupie Otto
Ponadto rozwiązanie wewnętrzne zmniejsza strach przed kontaktem wśród pracowników, dla których integracja generatywnej sztucznej inteligencji z ich codzienną pracą powinna stać się częścią ich codziennego życia. "Dzięki wewnętrznemu rozwiązaniu zbudowaliśmy wewnętrzny zespół ekspertów i stworzyliśmy wewnętrzną społeczność. Przede wszystkim daje to wielu pracownikom dobre samopoczucie. Jeśli nie mogę znaleźć rozwiązania, mogę zapytać kolegów".

Wewnętrzna generatywna sztuczna inteligencja jest także przydatna dla Otto affiliate EOS, mówi Janusch Skubatz, dyrektor ds. bezpieczeństwa informacji Grupy EOS. Wstępne projekty wewnętrzne są już w toku. "Myślę, że w przyszłości będziemy również korzystać z ogGPT", mówi, "ale przeszkody związane z ochroną danych w zarządzaniu należnościami są szczególnie wysokie. Kiedy na przykład nabywamy kredyty zagrożone, uzyskujemy dostęp do danych, które są szczególnie warte ochrony". Dlatego EOS podlega bardziej rygorystycznym zasadom niż inne firmy, a często także wymogom umownym ze strony partnerów, mówi Janusch: "Dlatego musimy dokładnie sprawdzić, czy technologia spełnia dalsze wymagania".
Cybersecurity expert Janusch Skubatz, Chief Information Security Officer of the EOS Group, with brown hair and white shirt

Podpowiedzi w Internecie nie powinny wykorzystywać informacji biznesowych

które nie są przeznaczone dla świata zewnętrznego.

Janusch Skubatz
Dyrektor ds. bezpieczeństwa informacji w Grupie EOS
Dopóki firmy nie mogą korzystać z bezpiecznej wewnętrznej wersji generatywnej sztucznej inteligencji, Janusch radzi użytkownikom we wszystkich branżach, aby przestrzegali podstawowych zasad. EOS i Otto Group jako całość mają już politykę dotyczącą sztucznej inteligencji, która ma zastosowanie do wszystkich pracowników.

Fragment wytycznych dotyczących sztucznej inteligencji Grupy EOS

  • Działaj odpowiedzialnie! Wprowadzaj dane do publicznych systemów AI tylko wtedy, gdy opublikowanie ich na stronie internetowej firmy byłoby całkowicie właściwe.

  • Bądź ostrożny! Odpowiedzi generowane przez AI mogą być stronnicze, niedokładne lub niewłaściwe. Zawsze sprawdzaj wyniki generowane przez narzędzia AI.

  • Uważaj! Nigdy nie podawaj swoich danych logowania (nazwa użytkownika, hasło) do narzędzi AI i zawsze uważaj na metody phishingu.

  • Poproś o wsparcie. Jeśli nie masz pewności, czy możesz korzystać z określonych danych lub które narzędzie AI jest bezpieczne, zapytaj lokalnego specjalistę ds. bezpieczeństwa informacji.

Janusch uważa jednak, że najbardziej decydującym czynnikiem jest regularna interakcja z generatywną sztuczną inteligencją: "Doświadczenie jest warunkiem wstępnym do rozwinięcia wyczucia technologii i jakości wyników". W ten sposób można uniknąć ryzykownych sytuacji, takich jak te w Samsungu i wykorzystać ogromny potencjał.

Chcesz porozmawiać o personalizacji generatywnej sztucznej inteligencji? Skontaktuj się z nami teraz.

Autorzy zdjęć: EOS