Più le macchine somiglieranno all’uomo e più saranno fallaci. Questa interessante teoria è sostenuta da Prof. Paolo Benanti che è contemporaneamente Ingegnere, Frate Francescano e docente di etica, bioetica ed etica delle tecnologie alla Pontifica Università Gregoriana di Roma. Per spiegare questa sua previsione Benanti porta un esempio concreto che mi sembra meriti essere seguito: Premesso che le intelligenze artificiali fondamentalmente cercano schemi, succede alle volte che gli schemi che trovano in realtà non esistano o siano errati. Se io chiedessi ad una intelligenza artificiale una previsione sul prossimo presidente degli Stati Uniti d’America, il computer, per elaborare la sua risposta, studierebbe i casi pregressi e molto probabilmente scarterebbe una donna (perché non ne è mai stata eletta una), scarterebbe tutte le persone sotto i 40/45 anni (perché presidenti più giovani di così non sono quasi mai stati eletti), scarterebbe un rappresentante di una minoranza etnica (perché ne è stato eletto sono uno fino ad ora) e alla fine sceglierebbe un candidato bianco ultra cinquantenne, ricco, uscito da una buona università ecc. ecc. Il problema di questo metodo è che si basa su dati del passato, quando invece al computer è stata chiesta una previsione futura che , in quanto tale, è incerta e non prevedibile. Ora, per far aumentare l’efficienza della intelligenza artificiale e farla somigliare di più a quella umana (che è proprio lo scopo di tutti gli studi e i progetti sino ad ora portati avanti), bisognerebbe dotare la macchina di una certa forma di intuito. Il problema però è che l’intuito è fallibile per definizione, quindi più la macchina diverrà “umana” ed intuitiva, più le sue elaborazioni saranno errate. A quel punto l’intelligenza artificiale diventerà inutile all’uomo…