sobota, 11 października 2025 r.
08.10.2025 16:32
22 wyświetleń
0 komentarzy
nophoto
W świecie finansów zaufanie i bezpieczeństwo to podstawa. Nowy raport pokazuje jednak, że za kulisami dzieje się coś niepokojącego.Chodzi o sztuczną inteligencję. A konkretnie o zjawisko zwane "Shadow AI". To używanie przez pracowników narzędzi AI, które nie zostały zatwierdzone przez ich firmę. Badanie na ten temat opublikowała firma DeepL, znana w Polsce z rewelacyjnego translatora, która swoje korzenie ma właśnie w naszym kraju. Prezesem i założycielem firmy jest Jarosław Kutyłowski.Wyniki ankiety przeprowadzonej wśród brytyjskich pracowników sektora finansowego są alarmujące. Aż 65% z nich przyznało się do korzystania z nieoficjalnych narzędzi AI w swojej pracy, w tym w interakcjach z klientami. To prosta droga do problemów z cyberbezpieczeństwem i naruszenia surowych regulacji bankowych.Wygoda wygrywa z zasadamiPracownicy nie robią tego ze złej woli. Wręcz przeciwnie – chcą być bardziej efektywni. Aż 70% ankietowanych uważa, że AI znacząco poprawiło szybkość i jakość obsługi klienta. Problem w tym, że narzędzia dostarczane przez pracodawców często są niewystarczające lub przestarzałe. Pracownicy szukają więc drogi na skróty.Zamiast korzystać z bezpiecznych, firmowych rozwiązań, sięgają po ogólnodostępne narzędzia, takie jak ChatGPT i inne chatboty czy translatory. Używają ich do komunikacji z klientami, analizy danych, a nawet monitorowania transakcji pod kątem oszustw.Twoje dane w cudzych rękachNiebezpieczeństwo jest ogromne. Pracownik, rozmawiając z publicznie dostępnym chatbotem, może mieć wrażenie, że to prywatna, bezpieczna konwersacja. W rzeczywistości wszystkie wpisane tam dane – w tym potencjalnie wrażliwe informacje o klientach banku – trafiają do firmy, która za tym chatbotem stoi. To stwarza gigantyczne ryzyko wycieku danych.Jak zauważa Mantas Sabeckis, badacz bezpieczeństwa w Cybernews, ludzie zapominają, że dane udostępniane chatbotom są de facto udostępniane firmie, która go stworzyła.Problem nie leży jednak w samych pracownikach. David Parry-Jones z DeepL podkreśla, że prawdziwe ryzyko to nie to, że pracownicy eksperymentują z AI, ale to, że firmy nie dają im bezpiecznych i skutecznych narzędzi do pracy. Dopóki to się nie zmieni, zjawisko "Shadow AI" będzie tylko narastać, a bezpieczeństwo naszych danych w bankach będzie stało pod coraz większym znakiem zapytania.

Zobacz cały artykuł w serwisie www.telepolis.pl »

Komentarze:
Najczęściej czytane
17.08.2025 13:37
106 wyświetleń
źródło: www.telepolis.pl
18.08.2025 7:59
101 wyświetleń
źródło: www.telepolis.pl
17.08.2025 10:24
99 wyświetleń
źródło: www.telepolis.pl
14.08.2025 11:45
93 wyświetleń
źródło: www.telepolis.pl
19.08.2025 12:47
91 wyświetleń
źródło: www.telepolis.pl
19.08.2025 11:22
85 wyświetleń
źródło: www.telepolis.pl
12.08.2025 13:30
85 wyświetleń
źródło: www.telepolis.pl
19.08.2025 16:27
83 wyświetleń
źródło: www.telepolis.pl
18.08.2025 12:05
77 wyświetleń
źródło: www.telepolis.pl
25.08.2025 19:38
71 wyświetleń
źródło: www.telepolis.pl