Web Content Viewer (JSR 286) 15min

Azioni
Caricamento...
Tra etica e normativa, come cambia l'informazione nell'era della AI. A Palazzo Pirelli un convegno del Corecom Lombardia.

Tra etica e normativa, come cambia l’informazione nell’era della AI. A Palazzo Pirelli stamani un convegno del Corecom Lombardia.

Chi fa informazione deve temere l’avvento dell’Intelligenza Artificiale oppure imparare a governarla? Il tema è stato al centro del convegno, a cura del Corecom Lombardia, in collaborazione con l’Ordine dei Giornalisti della Lombardia, dal titolo “Informazione e Intelligenza Artificiale: una sinergia possibile” svoltosi stamani a Milano, Palazzo Pirelli alla presenza di un centinaio di giornalisti e professionisti della comunicazione. 

L'Intelligenza Artificiale - ha dichiarato in apertura il Presidente del Corecom Lombardia, Cesare Gariboldi - ci pone  davanti a nuovi scenari in cui la professione del comunicatore pare travolta da una tecnologia che sembra fuori controllo. In questo contesto di precarietà, è importante riaffermare le peculiarità della professione giornalistica, che dalle macchine può essere affiancata ma mai sostituitaInterroghiamoci sulle conseguenze che l’AI può avere sull’uomo, sulla sua salute, l’ambiente in cui vive, i sentimenti che lo muovono. Torniamo a mettere al centro le persone, nell’ottica di un nuovo corso storico in cui le macchine diventino uno strumento migliorativo della nostra quotidianità, senza per questo condizionarla”.

Etica e antropologia dunque. Ma anche regolamenti e processi normativi. “Quello a cui assistiamo è un cambiamento epocale, in cui la tecnologia deve essere supportata da una buona regolamentazione per scongiurare i rischi relativi alle fake news, alla qualità dei dati, alla trasparenza degli algoritmi, alla privacy – ha concluso Gariboldi. Importante partire da una riflessione critica multidisciplinare che - mi auguro - possa sfociare in nuovi percorsi di governance”.

La principale sfida – ha dichiarato nel suo indirizzo di saluto il Presidente del Consiglio regionale, Federico Romani - che pone l’Intelligenza artificiale al mondo dell’informazione è quella di tutelare la figura del giornalista. Ciò perché solo il giornalista può garantire un’informazione corretta attraverso il rispetto della ‘verità sostanziale dei fatti’ che è uno dei pilastri della democrazia di un Paese. Il riconoscimento professionale del giornalista è fondamentale in una stagione in cui le intelligenze artificiali producono contenuti che possono essere confusi con le notizie. In questo contesto – ha proseguito Romani - il problema delle fake news diventa, dunque, urgente e la verifica delle fonti è il vero indicatore di qualità del giornalismo. Perché il principale problema dell’intelligenza artificiale è proprio quello dell’affidabilità dei contenuti. Sono convinto che l’intelligenza artificiale non rappresenti la fine del giornalismo. Resta, infatti, esclusiva la capacità dei giornalisti di ricercare, indicare e perseguire quell’orizzonte di senso che nessuna tecnologia può garantire”.

L’Ordine dei Giornalisti – ha dichiarato il Presidente dell’Ordine della Lombardia, Riccardo Sorrentinomonitora con grande attenzione il fenomeno dell’AI per le sue ricadute di ordine deontologico e occupazionale sulla nostra professione. Bisogna evitare che essa diventi uno strumento in mano agli editori per ridurre i costi e il personale. La ricerca, la contestualizzazione e il racconto dei fatti: questo è il nocciolo della professione giornalistica che occorre tutelare e promuovere. Questo l’intelligenza artificiale non potrà mai farlo perché si nutre di dati, fatti, cose che noi umani inseriamo e procede poi per imitazione. Noi giornalisti dobbiamo difendere questo ruolo specifico”.

Dopo il saluto di Ruggero Invernizzi, Sottosegretario di Regione Lombardia con delegata alla transizione digitale, ha preso la parola il Commissario Agcom Massimiliano Capitanio. “Noi come authority – ha detto Capitanio - stiamo svolgendo un ruolo predittivo e di supplenza in attesa della normativa europea sull’AI che realisticamente non entrerà in funzione prima del 2026. I temi più critici su cui stiamo lavorando sono il rispetto del diritto d’autore, la tutela del lettore rispetto alle fake news e la garanzia della privacy in relazione ai big data. Nell’AI Act saranno assolutamente vietati i sistemi volti a manipolare i comportamenti delle persone e a lederne la dignità tramite immagine, testi o video artefatti. Ii sistemi di riconoscimento facciale saranno sottoposti a vigilanza, i contenuti generati da AI dovranno riportare chiaramente la loro origine artificiale. In attesa che tali norme entrino in vigore, AGCom esercita già poteri di tutela degli utenti, specie le categorie protette (fragili, minori, ecc). Per studiare e monitorare il fenomeno, Agcom a fine gennaio ha creato un tavolo di lavoro sull’AI presieduto dal professor Andrea Renda, già componente del High Level Expert Group on Artificial Intelligence della Commissione Europea. Ci faremo trovare pronti”.

Marianna Sala, Vice Presidente Corecom Lombardia, ha affrontato il tema delle fake news segnalando la relativa facilità con cui oggi si possono riprodurre e alterare dati somatici, notizie, voci, video. “Questo – ha proseguito Sala - apre scenari inquietanti sui tentativi, per alcuni già in atto, di inquinamento delle competizioni elettorali in un anno come il 2024 in cui andrà al voto oltre la metà del genere umano.” L’economista Marco Delmastro si è invece intrattenuto sugli aspetti economici: sono nove le aziende al mondo (sei nordamericane e tre cinesi) che si occupano di intelligenza artificiale generativa. Una ricerca di McKinsey del 2023 stima in 4.400 miliardi di dollari l’impatto economico immediato dei sistemi di intelligenza artificiale, oltre due volte il prodotto interno lordo dell’Italia. Sono enormi le conseguenze anche in termini occupazionali: sono migliaia i giornalisti in tutto il mondo già licenziati a causa dell’intelligenza artificiale.
Giovanni Ziccardi, docente di informatica giuridica presso l’Università Statale di Milano, ha approfondito i risvolti della privacy con rischi e pericoli annessi nell’utilizzo dell’AI, portando alcuni esempi concreti di come l’intelligenza artificiale possa violare la privacy.

 

Tra gli interventi della seconda parte della mattinata Ruben Razzante, docente di Diritto dell’informazione all’Università Cattolica, ha messo in guardia dal rischio della sostituzione del giornalista. “L’AI è strutturalmente opaca, l’algoritmo non esibisce le sue fonti ma fa un copiaincolla dalle banche dati in base a criteri che non sono noti. Quindi per garantire una vera neutralità dell’informazione, la mediazione “umana” e palese del giornalista resta indispensabile. Ciò non vuol dire che l’intelligenza artificiale non debba entrare in alcun modo nelle redazioni. Essa invece può essere preziosa nell’aiutare il giornalista a filtrare in tempo pressochè reale la massa di dati e di notizie (spesso false) che circolano sulla rete. Poi però – ha concluso Razzante - il giudizio eticamente orientato del giornalista interviene a decidere se e cosa pubblicare a tutela del lettore e della dignità umana delle persone citate”.
Sono infine intervenuti Veronica Cella, avvocato e componente del Corecom Lombardia; Enrico Pagliarini, giornalista di Radio 24 del Sole 24 Ore; Massimo Manzari, CEO di ReD Open, spin-off dell’Università degli Studi Milano Bicocca.