Kot poroča Fox 13 iz Salt Lake Cityja, je orodje za pisanje poročil na osnovi posnetkov telesnih kamer očitno zaznalo nepovezan pogovor v ozadju in na tej podlagi ustvarilo fantazijski, pravljični zaključek poročila. »Programska oprema telesne kamere in programska oprema za pisanje poročil z umetno inteligenco sta zaznali film, ki se je predvajal v ozadju, in to je bila Disneyeva glasbena komedija ‘Princesa in žabec’ iz leta 2009,« je televiziji povedal policijski narednik Rick Keel. »In tako smo se naučili, kako pomemben je pregled in popravljanje poročil, ki jih ustvari umetna inteligenca.«
Oddelek je začel testirati programsko opremo na osnovi umetne inteligence z imenom Draft One, katere namen je samodejno ustvarjanje policijskih poročil na podlagi posnetkov telesnih kamer. Cilj je bil zmanjšati količino administrativnega dela, vendar glede na to, da prihaja do velikih napak, rezultati očitno niso dosledni. Celo preprosta simulacija prometne kontrole, namenjena prikazu zmogljivosti orodja, se je izkazala za neuspeh. Nastalo poročilo je namreč zahtevalo številne popravke, navaja Fox 13.
Kljub pomanjkljivostim je Keel za medij povedal, da mu orodje zdaj prihrani »šest do osem ur na teden«. »Nisem ravno tehnično najbolj podkovana oseba, zato je takšna prijaznost do uporabnika zelo dobrodošla,« je še dodal.
Draft One je lani prvič napovedalo podjetje za policijsko tehnologijo Axon – isto podjetje, ki stoji za Taserjem, znanim električnim paralizatorjem. Programska oprema uporablja velike jezikovne modele GPT podjetja OpenAI za generiranje celotnih policijskih poročil iz zvočnih posnetkov telesnih kamer. Strokovnjaki so hitro opozorili, da bi se v teh pomembnih dokumentih lahko pojavljale tako imenovane halucinacije. »Skrbi me, da bi avtomatizacija in enostavnost tehnologije povzročili, da bi bili policisti pri pisanju manj previdni,« je lani za Associated Press povedal profesor prava na Ameriški univerzi Andrew Ferguson. Drugi opozarjajo, da bi programska oprema lahko dodatno utrjevala že obstoječe rasne in spolne pristranskosti, kar je še posebej zaskrbljujoče glede na zgodovinsko vlogo organov pregona pri njihovem ohranjanju že dolgo pred pojavom umetne inteligence. Prav tako je bilo dokazano, da generativna orodja umetne inteligence reproducirajo pristranskosti do žensk in nebelih oseb. »Že samo dejstvo, da to tehnologijo uporablja isto podjetje, ki policiji dobavlja Taserje, je dovolj zaskrbljujoče,« je za AP povedal soustanovitelj organizacije Foundation for Liberating Minds iz Oklahoma Cityja Aurelius Francisco.
Kritiki prav tako trdijo, da bi se orodje lahko uporabljalo za uvajanje zanikanja odgovornosti in zmanjševanje osebne odgovornosti policistov v primeru napak. Po nedavni preiskavi organizacije Electronic Frontier Foundation je Draft One »videti namerno zasnovan tako, da se izogne revizijam, ki bi lahko zagotovile kakršnokoli odgovornost do javnosti«. Glede na dokumente, ki jih je pridobila organizacija, je »pogosto nemogoče ugotoviti, kateri deli policijskega poročila so bili ustvarjeni z umetno inteligenco in kateri deli so delo policista«.
»Axon in njegove stranke trdijo, da bo ta tehnologija revolucionirala policijsko delo, vendar še ni jasno, kako bo spremenila kazenskopravni sistem in komu bo ta tehnologija najbolj koristila,« je zapisala fundacija.
Policijska uprava Heber City se še ni odločila, ali bo nadaljevala z uporabo orodja Draft One. Oddelek preizkuša tudi konkurenčno programsko opremo umetne inteligence z imenom Code Four, ki je bila predstavljena v začetku tega leta. Glede na nezmožnost orodja, da loči med resničnostjo in izmišljenim svetom iz Disneyjevih zgodb, je mogoče le upati, da bo oddelek o tej odločitvi temeljito razmislil.
Vir: Futurism