Futuro

Le parole sono importanti

Un caso in discussione al tribunale di San José fa tornare d’attualità il problema dell’ambiguità delle parole della tecnologia. Se per esempio il nome di un prodotto fa credere che una macchina possa guidarsi da sola, la responsabilità di un incidente di chi è?
Tempo di lettura 4 min lettura
23 marzo 2024 Aggiornato alle 06:30

Sono passati sei anni. Il 23 marzo 2018, Walter Huang, un ingegnere della Apple, era a bordo della sua Tesla Model X. Dopo aver lasciato il figlio a scuola, Huang si è diretto verso l’ufficio. Ma non ci è mai arrivato. Huang è morto mentre non era alla guida della sua Tesla che si è schiantata contro una barriera di cemento sulla Highway 101 a quasi 70 miglia all’ora (più di 100 chilometri all’ora). Alla guida c’era invece Autopilot.

Autopilot è un prodotto della Tesla. È il sistema che consente all’automobile elettrica americana di guidarsi da sola. La legge impone alla casa di Elon Musk di richiedere al guidatore una attenzione costante per correggere eventuali errori dell’intelligenza artificiale, sicché in teoria il guidatore deve tenere sempre le mani sul volante. Ma l’Autopilot - a partire dal nome stesso - suggerisce che il guidatore possa anche fare altro mentre l’auto percorre il tragitto desiderato. Secondo gli investigatori, l’iPhone di Huang era acceso al momento dell’impatto e stava facendo girare un’applicazione: un gioco di strategia chiamato Three Kingdoms.

In un tribunale di San José nella Silicon Valley, in questi giorni, è in discussione il caso di Huang. Tra gli aspetti oggetto di discussione c’è ancora una volta la responsabilità di chi ha deciso di chiamare quel prodotto con il termine Autopilot: una parola che può generare aspettative distorte rispetto alla realtà. Gli avvocati difensori sostengono che Huang doveva tenere le mani sul volante ma l’accusa sottolinea che la macchina suggerisce in un modo piuttosto subdolo che quell’obbligo sia una formalità e che in realtà sia possibile lasciare la guida all’Autopilot. E il problema è questo: il management della Tesla sa che questa percezione ingannevole può condurre a incidenti? E fa abbastanza per impedirli?

Nel corso delle indagini è saltata fuori una mail di Jon McNeill, allora dirigente alla Tesla, che diceva nel 2016: «Mi sono trovato così sicuro lasciando a Autopilot la guida che ho lasciato perdere la strada e mi sono immerso nella mia corrispondenza di mail e telefonate (lo so, lo so, non è l’utilizzo raccomandato della macchina)». La mail era indirizzata a Sterling Anderson che si occupava dell’automazione della Tesla e in cc c’era Elon Musk.

Le parole ingannevoli nell’intelligenza artificiale sono innumerevoli. Da “learning” a “chat” si allude sempre a funzioni svolte dal cervello umano anche se è chiaro che quello che le macchine fanno è molto specifico.

Non sapendo perfettamente come funziona il cervello, ovviamente, può darsi che alla fine si scopra che è a sua volta sa fare statistiche e correlazioni ma è probabile che non sappia fare solo quello e che non sia quella la sua facoltà principale. Mentre la macchina della quale stiamo parlando è essenzialmente un gestore potentissimo di statistiche e correlazioni. Le soluzioni che produce, il progresso che ha davanti e gli errori che commette sono diversi da quelli del cervello umano.

E uno dei problemi che in fondo sarebbero più semplici da risolvere sarebbe quello di modificare la nomenclatura dell’intelligenza artificiale per eliminare le ambiguità. Che di per sé sono pericolose perché fanno pensare che si possa chiedere una risposta veritiera a ChatGPT o che si possa affidare la vita delle persone all’Autopilot.

Leggi anche
Mobilità
di Ilaria Marciano 6 min lettura
Mobilità
di Alexandra Suraj 4 min lettura