Tzw. sztuczna inteligencja AI a potencjalne ryzyka oszustwa

Tym razem wpis refleksyjny, do którego skłoniła mnie publikacja w internecie, gdzie znany i ceniony w świecie lekarskim autorytet uskarżał się na brak reakcji organów ścigania w przypadku wykorzystania jego wizerunku, a nawet głosu.

Rzecz miała polegać na tym, iż w popularnym serwisie, gdzie zamieszczać można swoje filmy, znalazł się film, na którym rzeczony lekarz miał zachwalać pewien unikatowy i cudowny produkt leczniczy. Poza wizerunkiem tej osoby, także jej głos został wykorzystany w tej "prezentacji". Co więcej - nie można było zorientować się, że głos jest podłożony czy też wyrwany może z innych medialnych wypowiedzi tego lekarza, który nie brak w internecie, gdyż tak doskonale zgrane były mimika czy też ruchy twarzy i ust ze słowami, jakie były podkładane. Do lekarza mieli dzwonić pacjenci z pytaniem dlaczego reklamuje taki produkt, a co oczywiście było sporym zaskoczeniem dla lekarza.

Problem został zgłoszony organom ścigania, lecz niestety dość szybko sprawa miała zostać ukończona umorzeniem (albo odmową wszczęcia), gdyż po prostu nie można było ustalić jakiejkolwiek osoby, jaka stała za "wrzuceniem" tegoż filmu do popularnego serwisu, albowiem najprawdopodobniej została do tego użyta tzw. sztuczna inteligencja specjalnie zaprogramowana do tworzenia treści z wykorzystaniem narzędzi potrafiących modyfikować czy też używać autentycznych innych nagrań lub kompilowania głosu z obrazem danej osoby...

Jak więc widać - powstaje tu dość poważne ryzyko popełniania przestępstw przez wyspecjalizowane grupy cyberprzestępcze używające określonych skryptów, programów itp. narzędzi informatycznych określanych mianem AI, gdzie nie można takich osób zidentyfikować ani namierzyć, np. przy użyciu numeru IP dostawcy internetu. Poza tym sam rozwój technologii być może będzie prowadzić do swoistego otwarcia puszki pandory, gdzie dany program będzie sam już inicjował działania przestępcze, przy ledwie dyskretnym "nadzorze" jego twórcy.