Roma, 18 gen. (askanews) - E' possibile sviluppare un'AI con un senso etico intrinseco? "La risposta a questa domanda è un semplice no. Perché l'AI non è una soggettività, è una macchina che risponde ad alcuni criteri. L'etica, se mi consente questa metafora, è un grande libro che abbiamo scritto come umanità nel corso di tutte quelle situazioni nelle quali ci siamo trovati di fronte alla necessità di scegliere, avevamo una libertà e ci siamo resi conto che le scelte non portavano alle stesse conseguenze. E allora rispetto a questo abbiamo bisogno di scrivere un altro capitolo, questa volta rispetto a delle macchine che possono automatizzare alcune scelte, quindi è in capo a noi questa etica, ma quest'etica dovrà essere computata da queste macchine": lo ha spiegato a Senato Tv Paolo Benanti, presidente della commissione AI per l'informazione della Presidenza del Consiglio, teologo e professore presso la Pontificia Università Gregoriana e consigliere di Papa Francesco sui temi dell'intelligenza artificiale e dell'etica della tecnologia. "Tecnicamente si tratta di mettere delle sorte di guard-rail alla macchina, facendo la metafora dell'automobile, il guard rail non ci impedisce di essere liberi e di utilizzare le strade, insieme al codice della strada cerca di minimizzare gli incidenti. Quello che dobbiamo fare è mettere in atto degli strumenti etici e anche giuridici per minimizzare quelli che possono esssre gli incidenti", ha concluso.
© Riproduzione riservata