Jak pogodzić dynamiczny rozwój nowych technologii z realną ochroną konsumenta? Jak zapewnić przejrzystość działania AI, nie hamując innowacji? Gdzie przebiega granica między personalizacją a manipulacją?
To jedne z kluczowych pytań, które wybrzmiały podczas Kongresu Konsument 2026 – wydarzenia organizowanego przez Federację Konsumentów w dniach 13–14 kwietnia w Warszawie. Polska Izba Informatyki i Telekomunikacji była partnerem jednej z debat Kongresu.
W tej ważnej debacie nie mogło zabraknąć głosu branży ICT. Polską Izbę Informatyki i Telekomunikacji reprezentowała Marta Brzoza, Wiceprezeska Zarządu PIIT. Wzięła ona udział w panelu poświęconym m.in. roli sztucznej inteligencji w relacji z klientem, transparentności algorytmów oraz wyzwaniom związanym z danymi i mikrotargetowaniem.
W rozmowie uczestniczyli przedstawiciele biznesu, regulatorów oraz środowiska eksperckiego. Pozwoliło to na wieloaspektową dyskusję nad wyzwaniami stojącymi przed rynkiem cyfrowym.
Jak podkreśliła Marta Brzoza podczas dyskusji: „Technologie związane z AI są już dzisiaj częścią naszej codzienności. Także firmy telekomunikacyjne nie mają innej ścieżki rozwoju niż wykorzystywanie przełomowych technologii w dostarczaniu usług i budowaniu codziennej relacji z klientem. Technologie to odpowiedzialne, konkurencyjne i bezpieczne zarządzanie siecią, dostarczanie zabezpieczonych usług oraz efektywny kontakt z klientem w postaci botów. Trzeba pamiętać, że narzędzia AI to także broń w walce
z cyberprzestępczością i fraudami. Raport CERT Orange Polska pokazuje, że tylko w 2025 roku 345 tys. domen phishingowych zostało zablokowanych.
Ważne jest, że firmy zrzeszone w PIIT zdecydowanie opowiadają się za transparentnością działań w tym zakresie – kluczowe jest, aby klient miał świadomość, że rozmawia z botem, a jednocześnie zachował możliwość kontaktu z opiekunem, jeżeli wyrazi takie życzenie. Podstawą działania naszych członków jest zaufanie klientów i użytkowników”.
PIIT aktywnie angażuje się w działania zmierzające do etycznego wykorzystania sztucznej inteligencji. Zaangażowanie naszych ekspertów w działania Global Partnership on AI we współpracy z OECD pozwoliło na wypracowanie rekomendacji dotyczących przeciwdziałania dezinformacji oraz braku dyskryminacji w wykorzystaniu dużych modeli i narzędzi AI. Rekomendacje te mogą stanowić istotny wkład
dla regulatorów obszaru AI. W Polsce oczekujemy na dalsze uregulowania w tym zakresie oraz wskazanie właściwego regulatora zgodnie
z AI Act.

