Cristianini: fare leggi e decidere cosa gli algoritmi possono fare – askanews.it

Cristianini: fare leggi e decidere cosa gli algoritmi possono fare

Conoscenza è antidoto contro paura dell’intelligenza artificiale
Ago 24, 2023
Rimini, 24 ago. (askanews) – “La incontriamo continuamente, per esempio su Internet quando ci blocca le e-mail indesiderate o gli spam, quando ci raccomanda i libri, ci propone video o canzoni. L’intelligenza artificiale si trova quasi ovunque nel mondo virtuale, ma anche in quello reale: può guidare le auto o fare una serie di diagnosi mediche. Funziona come qualsiasi tipo di intelligenza e la si utilizza ogni volta che non si sa come comportarsi. Ma “prova a spiegare alla lumaca del giardino, che pure è un essere intelligente, che non può mangiare il mio basilico perché è mio e mi reca un danno”. Ecco “spiegare a una macchina capace di intelligenza artificiale norme e valori della nostra società è un po’ come parlare a quella lumaca”. Così il professore di Intelligenza artificiale all’università di Bath, Nello Cristianini, che al Meeting di Rimini lancia un appello: “Noi siamo gli esseri umani, loro gli algoritmi. Invece che preoccuparci di cosa faranno loro a noi, dobbiamo essere noi al Parlamento a fare le leggi e decidere cosa è accettabile e cosa no e questo stiamo facendo”.

“Tutto sta a conoscere, la medicina contro la paura è la conoscenza” ha spiegato Cristianini, autore del libro “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”. “Dobbiamo sapere cosa abbiamo costruito, come vi siamo arrivati, che compromessi abbiamo fatto lungo la strada, le famose scorciatoie e questo ci aiuterà a capire come coesistere. Si può coesistere in modo sicuro e pacifico con le macchine. Faremo le leggi, cambieremo l’educazione un pochino, e si imparerà. Il primo passo è conoscere cosa abbiamo fatto, le scorciatoie che abbiamo preso e credo che tutto andrà bene”.

Intelligenza artificiale è una macchina o si avvicina all’essere umano? “Non ha molto in comune con l’essere umano – ha avvertito il professore -. E’ un tipo di intelligenza veramente diversa dal nostro. Bisogna capire le macchine sono intelligenti in maniera diversa. Immaginiamo più facilmente una lumaca nel giardino che mangia il basilico. E’ intelligente, sa cosa vuole, sa dove trovare un basilico, ma non possiamo spiegarci e capirci e discuterne. E’ una lumaca. Youtube sa che deve farci cliccare, sa come fare, ci farà cliccare sul video ma non è che possiamo spiegargli: attenzione questo è un utente minorenne. E’ un algoritmo. Quindi non comprendendo il valore e le norme rischia di fare del male, senza volerlo. E’ nostro lavoro obbligare questi algoritmi a seguire le norme che noi stabiliamo. Noi siamo gli esseri umani, loro gli algoritmi. Invece che preoccuparci di cosa faranno loro a noi, dobbiamo essere noi al Parlamento a fare le leggi e decidere cosa è accettabile e cosa no e questo stiamo facendo”.