Nel 2030, in una strada di montagna, due auto a guida autonoma si muovono in direzioni opposte. Nonostante la tecnologia avanzata e l’assenza di volante, un’improvvisa e inspiegabile collisione sta per accadere.
Queste macchine, affidabili e sicure, hanno rivoluzionato il modo di viaggiare. Incidenti stradali? Un ricordo. Eppure, in pochi attimi, le due auto si schianteranno, senza indicazioni precedenti di un possibile scenario del genere.
Questa è la cornice per il nostro approfondimento di oggi: il “Trolley Problem“, un dilemma filosofico del 1967 che diventa cruciale nel mondo delle auto autonome.
Il Trolley Problem ci mette di fronte ad un macabro dilemma: salvare 5 vite rischiando di ucciderne una oppure non fare nulla e lasciare che le 5 persone muoiano? In contesti più complessi, le scelte si moltiplicano e la morale personale entra in gioco.
Questo problema, diventa ancor più complicato con l’avvento delle auto a guida autonoma. Come dovrebbe reagire una macchina davanti a queste scelte? Secondo dati di moralmachine.net, sviluppato dall’MIT, le scelte variano notevolmente in base alla cultura.
Nel nostro racconto, la decisione è presa e la tragedia si consuma. Ma la domanda rimane aperta: come dovremmo programmare le nostre macchine per affrontare tali situazioni?
Un dilemma da affrontare in futuro, come molti altri che le auto a guida autonoma porteranno con sé.
Buon ascolto della puntata