/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Teologo Malnati, con la Carta abbiamo indicato regole per IA

Teologo Malnati, con la Carta abbiamo indicato regole per IA

Bulgarelli, responsabilità in caso di difetti dell'algoritmo

TRIESTE, 18 novembre 2024, 21:16

Redazione ANSA

ANSACheck

"Sull'utilizzo dei social e sulla necessità di contribuire a definire delle regole abbiamo inteso porre l'accento all'interno della Carta di Trieste sull'Intelligenza artificiale, redatta in forma libera con l'apporto di competenze trasversali. La Carta propone dei principi, suddivisi in articoli, il cui contenuto è stato condiviso per stimolare un dibattito teso alla regolamentazione del settore". Lo ha affermato mons. Ettore Malnati, teologo e presidente dell'Associazione Studium Fidei, riferendosi ai prossimi sviluppi dell' IA e del quantum computing.
    Gli ha fatto eco Andrea Bulgarelli, giornalista e coordinatore della Carta, ricordando che "'l'art. 10 - IA e responsabilità per il suo utilizzo, riporta che è obiettivo primario definire un sistema regolatorio che individui le responsabilità in caso di decisioni sbagliate dannose assunte dall' IA, indicando che coloro i quali creano e sviluppano l'IA potrebbero essere ritenuti responsabili se il danno è dovuto a difetti dell'algoritmo". Inoltre, coloro che utilizzano o gestiscono l'IA potrebbero "essere considerati responsabili se il danno è avvenuto durante l'utilizzo o a causa di decisioni prese attraverso l'IA, soprattutto nel caso abbiano contribuito allo sviluppo e alla personalizzazione del sistema".
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza