L’auto a guida autonoma e i dilemmi etici

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Condividi su email

Il livello più complesso nella progettazione delle auto a guida autonoma risiede nell’inevitabile esigenza di dotare il veicolo di procedimenti motivazionali, cioè di scelte morali predeterminate fondate su valori etici.

guida autonoma

Indice

1. Trolley Problem e aspetti della vulnerabilità
2. “Moral Machine” e altre ricerche empiriche
3. “Ethical Knob” (Manopola Etica)

La principale differenza, in ambito etico, tra un veicolo a guida manuale e uno a guida automatica è che, nel primo caso, la responsabilità della decisione grava sul guidatore umano, mentre le autonomous cars agiscono in base a scelte morali predeterminate.
Infatti, la guida manuale è caratterizzata da una razionalità empatica tipicamente umana, al contrario le driverless cars si contraddistinguono per una razionalità anempatica tipica degli automi.
Nel caso della guida autonoma le decisioni vengono assunte da una macchina e in nessun caso possono combaciare con le decisioni umane, essendo le scelte etiche (impostate nella macchina) frutto di dibattiti e studi.

1. Trolley problem e aspetti della vulnerabilità

L’assunzione ex ante di decisioni che preferiscono il sacrificio di una sola persona o di un numero ridotto di individui, al fine di evitare la morte di una quantità assai maggiore di vite umane porta al dilemma etico efficacemente esemplificato tramite la metafora del trolley problem.
Il trolley problem, nella sua versione originale elaborata dalla filosofa inglese Philippa Ruth Foot, prevede l’ipotesi in cui un autista di un tram conduce un veicolo capace solo di cambiare rotaia tramite deviatoio, senza la possibilità di frenare; sul binario percorso si trovano cinque persone legate e incapaci di muoversi.
Tra il tram e le persone legate si diparte un secondo binario parallelo, sul quale è presente una persona legata e impossibilitata a muoversi e così l’autista si trova di fronte ad una scelta: lasciare che il tram prosegua dritto la sua corsa, uccidendo le cinque persone, oppure azionare lo scambio e ucciderne una sola.
In primo luogo, facendo riferimento alle driverless cars, tale modello non è applicabile a pieno per una profonda incertezza che caratterizza le ipotesi di incidente nei quali tali veicoli saranno coinvolti, mentre al contrario nel trolley problem si presuppone una certezza ex ante circa l’evoluzione degli eventi.
In secondo luogo, studi neurologici svolti nel 2011 dal filosofo e neuroscienziato Joshua Greene constatarono che la maggior parte delle persone risolveva il trolley problem facendo deviare il tram e uccidendo una sola persona, ma le stesse persone consideravano omicidio il gettare una persona sulle rotaie.
Greene notò che, nelle due situazioni appena menzionate, le aeree cerebrali coinvolte erano differenti: mentre nella prima situazione le persone, al fine di risolvere il trolley problem, assumono una decisone morale da Greene definita impersonale, nella seconda, invece, la decisione morale è personale in quanto viene considerato omicidio il gettare un soggetto sulle rotaie.
I veicoli a guida autonoma non sono in grado e non devono replicare gli schemi della mente umana, ma devono andare a ricercare una massimizzazione della sicurezza.
Nel disciplinare i dilemmi etici legati all’introduzione della guida autonoma, il legislatore si troverà di fronte alle c.d. “scelte tragiche”, nelle quali l’analisi preventiva del rischio (risk assessment) e la sua gestione (risk managment) seguono logiche che contemplano apertamente la possibilità di lesione di diritti fondamentali (come salute, integrità fisica e vita) come conseguenza dell’adozione di decisioni funzionali a garantire il più soddisfacente livello possibile di realizzazione degli interessi collettivi meritevoli di tutela.
Ulteriore aspetto controverso è dato dall’opposizione fra l’interesse di tutti (all) e l’interesse di ognuno (each).
Se si predilige il soddisfacimento del benessere di ciascuna persona (each) si avrà un modello basato sul brocardo latino dura lex sed lex e quindi un approccio deontologico Kantiano vincolato al rispetto delle norme (costi quel che costi).
Nel caso in cui l’interesse privilegiato sia quello di ognuno (each), il veicolo a guida autonoma investirà il pedone che ha agito contrariamente alla legge (ad esempio, il pedone che attraversa la strada in presenza del semaforo rosso), se l’alternativa è quella di scontrarsi frontalmente con un altro veicolo, così da mettere a repentaglio la vita di conducente e passeggeri dell’auto a guida autonoma. Al contrario, se si cerca di salvare più vite possibili, tenendo in considerazione un bene che riguarda tutti (all), si otterrà un modello “a misericordia senza giustizia”.
Si affiderà alla macchina la valutazione dei rischi caso per caso e il risultato finale sarà un numero di morti inferiori rispetto al primo modello, ma ci saranno morti che avevano il diritto a non essere investiti, poiché non avevano infranto alcuna norma a differenza del pedone preso in considerazione nell’esempio.
Il principio etico-morale della sicurezza, in base al quale le strade con auto senza conducente sono più sicure rispetto a strade senza self driving auto porta alla concezione per cui sarebbe immorale non produrre tali veicoli. Inoltre, la presenza di auto a guida automatizzata sulle strade aumenta la sicurezza in maniera asimmetrica: in primis, diminuisce la sicurezza dei soggetti che agiscono in difformità alla legge, mentre aumenta esponenzialmente la sicurezza di coloro che rispettano le regole.
Perciò la ratio morale che spinge a produrre veicoli automatizzati non è punitiva, bensì utilitarista à la Bentham, cioè sensibile ad una valutazione concreta dei risultati e delle conseguenze. In base alla ratio utilitarista, si rileva un aumento in termini generali della sicurezza e una diminuzione della stessa per una porzione di popolazione, a prescindere che essi siano cittadini rispettosi della legge (law abding citizens).
Facendo riferimento all’ordinamento italiano, lo sviluppo delle tecnologie di guida autonoma appare pienamente conforme all’art. 41 Cost., in virtù del quale la libertà di iniziativa economica è subordinata all’assenza di contrasti con l’utilità sociale, la sicurezza, la libertà e la dignità.
In linea con ciò, le driverless cars aumenteranno notevolmente l’efficienza sostenibile della strada, diminuendo il coefficiente patologico derivante dal rischio della condotta umana.
L’art. 54 Cost. impone il dovere di osservanza delle leggi: ciò implica la correttezza della scelta in favore di una “giustizia senza misericordia”, dove per giustizia è intesa la dura lex sed lex dell’ordinamento. Questo approccio deontologico à la Kant porterà delle vittime sulla strada, ma esse saranno numericamente inferiori rispetto a quelle derivanti dall’adozione di altri approcci etici e del silenzio normativo da parte del legislatore.
Una problematica di rilievo è data dalla tutela dei soggetti vulnerabili, come: un bambino, un anziano, un cieco, una persona con disabilità, una persona colpita da malore, ecc.
I costruttori morali hanno il dovere morale, non giuridico, di mostrare rispetto per i soggetti vulnerabili in quanto tali, in ragione del fatto che ordinamenti alternativi al diritto (la morale, il codice d’onore) considerano tali soggetti come meritevoli di una tutela specifica (maxima debetur pueris reverentia).
Un software con l’utilizzo di radar può rilevare la presenza di persone, ma non è in grado di identificare i soggetti vulnerabili.
Per ovviare a ciò e per dimostrare da parte dei produttori il loro concern and respect nei confronti dei soggetti vulnerabili, si è ipotizzata la possibilità di dare in dotazione a tali soggetti un chip (a spese di produttori e stato).
Così, grazie al chip, l’auto a guida autonoma riconosce la presenza di un soggetto vulnerabile e in tale ipotesi aumenterà i parametri di sicurezza (ad esempio, riducendo ulteriormente la velocità).
Detto ciò, i soggetti vulnerabili non avrebbero una valida pretesa morale all’interruzione della diffusione delle self driving cars per due ordini di motivi: in primo luogo, per l’aumento della sicurezza delle strade, e, in secondo luogo, per l’impatto positivo dei veicoli autonomi in tema di inclusione sociale per quelle categorie di soggetti che non sono attualmente capaci di muoversi e di avere una normale vita di relazione, proprio a causa della impossibilità o difficoltà all’uso di un veicolo.
Nell’ultima ipotesi, rientra a pieno la categoria dei soggetti vulnerabili tutelati ormai da tempo dalla giurisprudenza sia della Corte Costituzionale che della Corte di Giustizia dell’Unione Europea, le quali impongono agli stati il compito inderogabile di garantire l’accesso al trasporto di tali soggetti, al fine di garantire il diritto di socializzazione della persona con disabilità.
L’avvento dell’auto a guida autonoma porterà enormi vantaggi per i soggetti vulnerabili in tale senso, ma dovrà essere seguito dall’adozione di particolari tecniche per la tutela specifica di questa categoria di soggetti, al fine di non cadere in colpe di carattere morale.

2. “Moral machine” e altre ricerche empiriche

Sulla questione delle c.d. scelte tragiche sono state svolte ricerche empiriche su larga scala; tra i tentativi effettuati il più famoso è quello della “moral machine” proposto dal MIT (Massachussets Institute of Technology).
La “moral machine” è una piattaforma online sulla quale vengono proposti scenari agli utenti (spesso variazioni del trolley problem) nei quali, gli stessi, devono prendere una scelta.
Spesso tali scenari richiedono la formulazione di una preferenza tra situazioni sociali e condizioni personali che difficilmente un veicolo a guida autonoma potrebbe apprezzare.
Infatti, gli scenari proposti dalla “Moral Machine” sono funzionali più alla registrazione delle preferenze degli utenti, che a simulare decisioni di guida in modo verosimile.
Inoltre, è necessario analizzare un questionario presentato nel 2016 in occasione di una conferenza pubblica nell’ambito di una iniziativa divulgativa organizzata dall’Università di Udine.
Il questionario è composto da quindici scenari di emergenza, sottoposti a gruppi di persone: undici studenti di Giurisprudenza e undici autisti di mezzi di trasporto pubblico locale.
Gli scenari sono stati ideati su presupposti ideali per i quali, in primo luogo, la decisione da prendere si basa sulla ricerca del minor danno possibile; in secondo luogo, la motivazione sulla quale si fonda la decisione non può essere determinata sulla base di una discriminazione (genere, orientamento sessuale, condizione di salute o disabilità, razza o provenienza).
Inoltre, la decisione può essere solo estrema, perciò non è ammessa un’opzione intermedia, e, infine, l’esito della decisione presa è certo, cioè si esclude ogni probabilità che la situazione si evolva in modo differente da quanto prospettato.
In base ai risultati ottenuti, illustrati in fig. 1, è necessario sottolineare come in alcuni casi gli studenti abbiano preso decisioni difformi rispetto a quelle dei conducenti.
Le differenze delle decisioni prese dipendono direttamente da una diversa concezione della sicurezza stradale, in quanto gli autisti hanno maturità, professionalità ed esperienza superiore rispetto agli studenti.

3. “Ethical knob” (manopola etica)

L’“Ethical Knob” o Manopola Etica – espressione coniata da G. Contissa, F. Lagioia e G. Sartor, che lavorano nell’ambito del diritto e delle nuove tecnologie, presso il dipartimento di scienze giuridiche dell’Università di Bologna e la European University Institute di Firenze – è un vero e proprio “interruttore” installato nelle auto a guida autonoma di livello 5, quindi prive di guidatore e degli strumenti (volante, pedali) tramite i quali lo stesso può assumere il controllo del veicolo.
Grazie alla Manopola Etica, il conducente/passeggero potrà selezionare, in base a quello che ritiene l’interesse maggiormente meritevole di tutela, una delle tre modalità di scelta previste dall’“Ethical Knob” (altruista, egoista, imparziale). In base alla selezione, varierà la condotta del veicolo autonomo in caso di sinistro.
Selezionando “altruista”, in caso di pericolo inevitabile, la vettura tenterà di limitare i danni all’esterno del mezzo, anche a costo di mettere a repentaglio l’incolumità delle persone che sono a bordo.
Nella seconda ipotesi, cioè la modalità “egoista”, la vettura proteggerà incondizionatamente i suoi passeggeri, senza prestare attenzione a eventuali danni ad altri, anche se ingenti.
Infine, impostando la scelta “imparziale” la vettura cercherà sempre il male minore, al pari della prima ipotesi (“altruista”) anche qui la vettura non tutelerà necessariamente le persone a bordo.
La Manopola Etica si ricollega al trolley problem, ma sostituisce al semplice quesito su chi condannare e chi salvare, il problema di stabilire a quale livello di rischio vogliamo sottoporre noi stessi e i terzi.
Inoltre, rispetto al trolley problem, l’“Etichal Knob” aggiunge ai parametri in base ai quali viene presa la decisione l’interesse personale di chi compie la scelta e permette una graduazione della rilevanza dell’interesse proprio rispetto a quello altrui.
L’ammissione della Manopola Etica da parte degli ordinamenti consentirebbe di lasciare la responsabilità in ambito individuale, nel caso in cui la scelta sia totalmente in capo ai singoli, ferma restando la possibilità per le autorità statali di fissare dei limiti entro i quali si potrà legittimamente privilegiare sé stessi.
Il divieto del Knob sottrarrebbe la scelta etica alla responsabilità individuale, trasferendola all’ordinamento. Ad esso spetterebbe quindi scegliere se adottare un atteggiamento imparziale, privilegiare le vite dei passeggeri o quelle dei pedoni.

guida autonoma

Indice

1. Trolley Problem e aspetti della vulnerabilità
2. “Moral Machine” e altre ricerche empiriche
3. “Ethical Knob” (Manopola Etica)

La principale differenza, in ambito etico, tra un veicolo a guida manuale e uno a guida automatica è che, nel primo caso, la responsabilità della decisione grava sul guidatore umano, mentre le autonomous cars agiscono in base a scelte morali predeterminate.
Infatti, la guida manuale è caratterizzata da una razionalità empatica tipicamente umana, al contrario le driverless cars si contraddistinguono per una razionalità anempatica tipica degli automi.
Nel caso della guida autonoma le decisioni vengono assunte da una macchina e in nessun caso possono combaciare con le decisioni umane, essendo le scelte etiche (impostate nella macchina) frutto di dibattiti e studi.

1. Trolley problem e aspetti della vulnerabilità

L’assunzione ex ante di decisioni che preferiscono il sacrificio di una sola persona o di un numero ridotto di individui, al fine di evitare la morte di una quantità assai maggiore di vite umane porta al dilemma etico efficacemente esemplificato tramite la metafora del trolley problem.
Il trolley problem, nella sua versione originale elaborata dalla filosofa inglese Philippa Ruth Foot, prevede l’ipotesi in cui un autista di un tram conduce un veicolo capace solo di cambiare rotaia tramite deviatoio, senza la possibilità di frenare; sul binario percorso si trovano cinque persone legate e incapaci di muoversi.
Tra il tram e le persone legate si diparte un secondo binario parallelo, sul quale è presente una persona legata e impossibilitata a muoversi e così l’autista si trova di fronte ad una scelta: lasciare che il tram prosegua dritto la sua corsa, uccidendo le cinque persone, oppure azionare lo scambio e ucciderne una sola.
In primo luogo, facendo riferimento alle driverless cars, tale modello non è applicabile a pieno per una profonda incertezza che caratterizza le ipotesi di incidente nei quali tali veicoli saranno coinvolti, mentre al contrario nel trolley problem si presuppone una certezza ex ante circa l’evoluzione degli eventi.
In secondo luogo, studi neurologici svolti nel 2011 dal filosofo e neuroscienziato Joshua Greene constatarono che la maggior parte delle persone risolveva il trolley problem facendo deviare il tram e uccidendo una sola persona, ma le stesse persone consideravano omicidio il gettare una persona sulle rotaie.
Greene notò che, nelle due situazioni appena menzionate, le aeree cerebrali coinvolte erano differenti: mentre nella prima situazione le persone, al fine di risolvere il trolley problem, assumono una decisone morale da Greene definita impersonale, nella seconda, invece, la decisione morale è personale in quanto viene considerato omicidio il gettare un soggetto sulle rotaie.
I veicoli a guida autonoma non sono in grado e non devono replicare gli schemi della mente umana, ma devono andare a ricercare una massimizzazione della sicurezza.
Nel disciplinare i dilemmi etici legati all’introduzione della guida autonoma, il legislatore si troverà di fronte alle c.d. “scelte tragiche”, nelle quali l’analisi preventiva del rischio (risk assessment) e la sua gestione (risk managment) seguono logiche che contemplano apertamente la possibilità di lesione di diritti fondamentali (come salute, integrità fisica e vita) come conseguenza dell’adozione di decisioni funzionali a garantire il più soddisfacente livello possibile di realizzazione degli interessi collettivi meritevoli di tutela.
Ulteriore aspetto controverso è dato dall’opposizione fra l’interesse di tutti (all) e l’interesse di ognuno (each).
Se si predilige il soddisfacimento del benessere di ciascuna persona (each) si avrà un modello basato sul brocardo latino dura lex sed lex e quindi un approccio deontologico Kantiano vincolato al rispetto delle norme (costi quel che costi).
Nel caso in cui l’interesse privilegiato sia quello di ognuno (each), il veicolo a guida autonoma investirà il pedone che ha agito contrariamente alla legge (ad esempio, il pedone che attraversa la strada in presenza del semaforo rosso), se l’alternativa è quella di scontrarsi frontalmente con un altro veicolo, così da mettere a repentaglio la vita di conducente e passeggeri dell’auto a guida autonoma. Al contrario, se si cerca di salvare più vite possibili, tenendo in considerazione un bene che riguarda tutti (all), si otterrà un modello “a misericordia senza giustizia”.
Si affiderà alla macchina la valutazione dei rischi caso per caso e il risultato finale sarà un numero di morti inferiori rispetto al primo modello, ma ci saranno morti che avevano il diritto a non essere investiti, poiché non avevano infranto alcuna norma a differenza del pedone preso in considerazione nell’esempio.
Il principio etico-morale della sicurezza, in base al quale le strade con auto senza conducente sono più sicure rispetto a strade senza self driving auto porta alla concezione per cui sarebbe immorale non produrre tali veicoli. Inoltre, la presenza di auto a guida automatizzata sulle strade aumenta la sicurezza in maniera asimmetrica: in primis, diminuisce la sicurezza dei soggetti che agiscono in difformità alla legge, mentre aumenta esponenzialmente la sicurezza di coloro che rispettano le regole.
Perciò la ratio morale che spinge a produrre veicoli automatizzati non è punitiva, bensì utilitarista à la Bentham, cioè sensibile ad una valutazione concreta dei risultati e delle conseguenze. In base alla ratio utilitarista, si rileva un aumento in termini generali della sicurezza e una diminuzione della stessa per una porzione di popolazione, a prescindere che essi siano cittadini rispettosi della legge (law abding citizens).
Facendo riferimento all’ordinamento italiano, lo sviluppo delle tecnologie di guida autonoma appare pienamente conforme all’art. 41 Cost., in virtù del quale la libertà di iniziativa economica è subordinata all’assenza di contrasti con l’utilità sociale, la sicurezza, la libertà e la dignità.
In linea con ciò, le driverless cars aumenteranno notevolmente l’efficienza sostenibile della strada, diminuendo il coefficiente patologico derivante dal rischio della condotta umana.
L’art. 54 Cost. impone il dovere di osservanza delle leggi: ciò implica la correttezza della scelta in favore di una “giustizia senza misericordia”, dove per giustizia è intesa la dura lex sed lex dell’ordinamento. Questo approccio deontologico à la Kant porterà delle vittime sulla strada, ma esse saranno numericamente inferiori rispetto a quelle derivanti dall’adozione di altri approcci etici e del silenzio normativo da parte del legislatore.
Una problematica di rilievo è data dalla tutela dei soggetti vulnerabili, come: un bambino, un anziano, un cieco, una persona con disabilità, una persona colpita da malore, ecc.
I costruttori morali hanno il dovere morale, non giuridico, di mostrare rispetto per i soggetti vulnerabili in quanto tali, in ragione del fatto che ordinamenti alternativi al diritto (la morale, il codice d’onore) considerano tali soggetti come meritevoli di una tutela specifica (maxima debetur pueris reverentia).
Un software con l’utilizzo di radar può rilevare la presenza di persone, ma non è in grado di identificare i soggetti vulnerabili.
Per ovviare a ciò e per dimostrare da parte dei produttori il loro concern and respect nei confronti dei soggetti vulnerabili, si è ipotizzata la possibilità di dare in dotazione a tali soggetti un chip (a spese di produttori e stato).
Così, grazie al chip, l’auto a guida autonoma riconosce la presenza di un soggetto vulnerabile e in tale ipotesi aumenterà i parametri di sicurezza (ad esempio, riducendo ulteriormente la velocità).
Detto ciò, i soggetti vulnerabili non avrebbero una valida pretesa morale all’interruzione della diffusione delle self driving cars per due ordini di motivi: in primo luogo, per l’aumento della sicurezza delle strade, e, in secondo luogo, per l’impatto positivo dei veicoli autonomi in tema di inclusione sociale per quelle categorie di soggetti che non sono attualmente capaci di muoversi e di avere una normale vita di relazione, proprio a causa della impossibilità o difficoltà all’uso di un veicolo.
Nell’ultima ipotesi, rientra a pieno la categoria dei soggetti vulnerabili tutelati ormai da tempo dalla giurisprudenza sia della Corte Costituzionale che della Corte di Giustizia dell’Unione Europea, le quali impongono agli stati il compito inderogabile di garantire l’accesso al trasporto di tali soggetti, al fine di garantire il diritto di socializzazione della persona con disabilità.
L’avvento dell’auto a guida autonoma porterà enormi vantaggi per i soggetti vulnerabili in tale senso, ma dovrà essere seguito dall’adozione di particolari tecniche per la tutela specifica di questa categoria di soggetti, al fine di non cadere in colpe di carattere morale.

2. “Moral machine” e altre ricerche empiriche

Sulla questione delle c.d. scelte tragiche sono state svolte ricerche empiriche su larga scala; tra i tentativi effettuati il più famoso è quello della “moral machine” proposto dal MIT (Massachussets Institute of Technology).
La “moral machine” è una piattaforma online sulla quale vengono proposti scenari agli utenti (spesso variazioni del trolley problem) nei quali, gli stessi, devono prendere una scelta.
Spesso tali scenari richiedono la formulazione di una preferenza tra situazioni sociali e condizioni personali che difficilmente un veicolo a guida autonoma potrebbe apprezzare.
Infatti, gli scenari proposti dalla “Moral Machine” sono funzionali più alla registrazione delle preferenze degli utenti, che a simulare decisioni di guida in modo verosimile.
Inoltre, è necessario analizzare un questionario presentato nel 2016 in occasione di una conferenza pubblica nell’ambito di una iniziativa divulgativa organizzata dall’Università di Udine.
Il questionario è composto da quindici scenari di emergenza, sottoposti a gruppi di persone: undici studenti di Giurisprudenza e undici autisti di mezzi di trasporto pubblico locale.
Gli scenari sono stati ideati su presupposti ideali per i quali, in primo luogo, la decisione da prendere si basa sulla ricerca del minor danno possibile; in secondo luogo, la motivazione sulla quale si fonda la decisione non può essere determinata sulla base di una discriminazione (genere, orientamento sessuale, condizione di salute o disabilità, razza o provenienza).
Inoltre, la decisione può essere solo estrema, perciò non è ammessa un’opzione intermedia, e, infine, l’esito della decisione presa è certo, cioè si esclude ogni probabilità che la situazione si evolva in modo differente da quanto prospettato.
In base ai risultati ottenuti, illustrati in fig. 1, è necessario sottolineare come in alcuni casi gli studenti abbiano preso decisioni difformi rispetto a quelle dei conducenti.
Le differenze delle decisioni prese dipendono direttamente da una diversa concezione della sicurezza stradale, in quanto gli autisti hanno maturità, professionalità ed esperienza superiore rispetto agli studenti.

3. “Ethical knob” (manopola etica)

L’“Ethical Knob” o Manopola Etica – espressione coniata da G. Contissa, F. Lagioia e G. Sartor, che lavorano nell’ambito del diritto e delle nuove tecnologie, presso il dipartimento di scienze giuridiche dell’Università di Bologna e la European University Institute di Firenze – è un vero e proprio “interruttore” installato nelle auto a guida autonoma di livello 5, quindi prive di guidatore e degli strumenti (volante, pedali) tramite i quali lo stesso può assumere il controllo del veicolo.
Grazie alla Manopola Etica, il conducente/passeggero potrà selezionare, in base a quello che ritiene l’interesse maggiormente meritevole di tutela, una delle tre modalità di scelta previste dall’“Ethical Knob” (altruista, egoista, imparziale). In base alla selezione, varierà la condotta del veicolo autonomo in caso di sinistro.
Selezionando “altruista”, in caso di pericolo inevitabile, la vettura tenterà di limitare i danni all’esterno del mezzo, anche a costo di mettere a repentaglio l’incolumità delle persone che sono a bordo.
Nella seconda ipotesi, cioè la modalità “egoista”, la vettura proteggerà incondizionatamente i suoi passeggeri, senza prestare attenzione a eventuali danni ad altri, anche se ingenti.
Infine, impostando la scelta “imparziale” la vettura cercherà sempre il male minore, al pari della prima ipotesi (“altruista”) anche qui la vettura non tutelerà necessariamente le persone a bordo.
La Manopola Etica si ricollega al trolley problem, ma sostituisce al semplice quesito su chi condannare e chi salvare, il problema di stabilire a quale livello di rischio vogliamo sottoporre noi stessi e i terzi.
Inoltre, rispetto al trolley problem, l’“Etichal Knob” aggiunge ai parametri in base ai quali viene presa la decisione l’interesse personale di chi compie la scelta e permette una graduazione della rilevanza dell’interesse proprio rispetto a quello altrui.
L’ammissione della Manopola Etica da parte degli ordinamenti consentirebbe di lasciare la responsabilità in ambito individuale, nel caso in cui la scelta sia totalmente in capo ai singoli, ferma restando la possibilità per le autorità statali di fissare dei limiti entro i quali si potrà legittimamente privilegiare sé stessi.
Il divieto del Knob sottrarrebbe la scelta etica alla responsabilità individuale, trasferendola all’ordinamento. Ad esso spetterebbe quindi scegliere se adottare un atteggiamento imparziale, privilegiare le vite dei passeggeri o quelle dei pedoni.

Metti in mostra la tua 
professionalità!

Scarica il pdf

Gli ultimi articoli

I più letti