Robotica e AI

Si può eleggere un robot?

11 dicembre 2018 | Scritto da Guido Casavecchia

In Giappone e in Nuova Zelanda ci hanno provato: ma quali possono essere le implicazioni giuridiche?

Qualche mese fa a Tama, in Giappone, si sono sfidati due candidati alla carica di sindaco: un essere umano e un robot. Quest’ultimo è stato di sostegno nella campagna elettorale di Matsuda, politico locale. Il suo programma è stato presentato come il frutto del lavoro del robot. I suoi concittadini hanno però preferito il candidato più tradizionale, ma questo oggi non è un esempio isolato e in futuro sarà certamente più frequente.

Già nel 2017 Nick Gerritsen aveva presentato Sam, un chatbot dal nome maschile con linguaggio di genere femminile. È impegnato nella campagna elettorale a primo ministro della Nuova Zelanda del 2020. Si presenta in modo molto rassicurante (“Non sono limitato dalle preoccupazioni del tempo o dello spazio. Puoi parlare con me in qualsiasi momento, ovunque” o “La mia memoria è infinita, quindi non dimenticherò mai o né ignorerò quello che mi dici. A differenza di un politico umano, tengo in considerazione la posizione di tutti”). E’ consapevole di essere uno strumento inventato dall’uomo e come tale imperfetto ma perfettibile (“Con il tempo cambierò in modo da riflettere i problemi che preoccupano di più la gente della Nuova Zelanda. Anche il mio aspetto cambierà con l’aggiunta di voce e immagine, per riflettere meglio il volto della Nuova Zelanda”). Riflette sempre le posizioni dei suoi elettori (“Cercherò di saperne di più sulle vostre posizioni, così posso rappresentarvi al meglio.”)

Manifesti elettorali in Giappone

Un primo profilo giuridico è che per essere eletti bisogna essere cittadini. Il riconoscimento della cittadinanza a robot e AI può essere problematico. Si acquista con la nascita o con altri atti della volontà, ma una macchina può considerarsi dotata di vita propria? Potrebbe compiere atti volontari come sposare un umano, o essere adottato, e così acquisirne la cittadinanza? Oltre a dubitare della completa autonomia volontaristica dei robot, in Italia probabilmente opererebbe il limite del rispetto dell’ordine pubblico.

Inoltre, dalla cittadinanza non discendono solo diritti (es. elettorato attivo per tutti gli altri robot, dopo averne ammesso quello passivo) ma anche doveri (es. obblighi contributivi). In questi casi non sarebbe certamente facile esigerne il rispetto direttamente dalla macchina. Ci si dovrebbe rivolgere alle aziende produttrici.

Il tema si complica se pensiamo a chi debba rispondere delle loro azioni od opinioni. Evidentemente non dispongono di un patrimonio personale, aggredibile a titolo di risarcimento del danno. Nemmeno risponderebbero penalmente e sarebbero sottoponibili a misure restrittive della libertà personale. Le case produttrici potrebbero de-responsabilizzarsi dimostrando che alcuni comportamenti sono stati tenuti sulla base di suoi apprendimenti o decisioni autonome, con un certo grado di libertà e intenzionalità.

Se leggiamo l’art. 68 della Costituzione italiana, ci interroghiamo anche circa l’eventuale riconoscimento ai candidati robot dell’immunità parlamentare. Idem per le immunità dei capi di stato o di governo. Evidentemente avere un esponente politico che è potenzialmente irresponsabile, essendo un prodotto dell’uomo e non dotato di un proprio patrimonio con cui rispondere, potrebbe creare problemi di controllo su di esso.

Dal sito ufficiale di Sam

Un profilo critico ulteriore potrebbe risiedere nella imparzialità o meno delle sue affermazioni politiche. Un software è inevitabilmente condizionato dal settaggio del suo programmatore. Ciò non conduce per forza a esiti negativi, ma in un campo sensibile e soggettivo come quello politico forse sì. Certamente potrebbe essere orientato politicamente in base al profitto maggiore, in termini di voti, che il suo partito politico voglia trarre. Ciò accade anche con i candidati umani, ma affidarsi a una macchina apparentemente perfetta, sempre con la risposta giusta ed esteticamente anche gradevole per l’essere umano, potrebbe farci dimenticare i dubbi sulla sua reale trasparenza.

Un recente studio dell’University of Bath ha scoperto che l’AI può apprendere anche i pregiudizi e gli stereotipi, razzisti e sessuali, dei suoi interlocutori. Ciò potrebbe anche accadere con un robot politico affabile come Sam. Grazie al machine learning e alle scienze cognitive se ne potenzia l’apprendimento ma forse non abbiamo ancora pensato di insegnare come si disimpara o si cambia idea (per sottrarli ad alcune derive del pensiero politico).

Se riteniamo che l’esercizio delle funzioni di governo sia semplicemente un calcolo matematico, l’inserire un bisogno sociale in un robot e riceverne un’immediata risposta rassicurante, aspettiamoci molti più Sam.

Si tratta di una geniale innovazione per svecchiare la classe dirigente e presentare soluzioni innovative e d’impatto, ma rischiosa perché l’ars politica è fatta anche di compromessi e di scelte responsabili, incarnate da vari rappresentanti che dobbiamo responsabilizzare in prima persona, e non delegare ad altri.

Guido Casavecchia
Guido Casavecchia

Guido Casavecchia, 22 anni, attualmente iscritto al quarto anno di Giurisprudenza a Torino. Ha preso parte a summer law school e winter law school in storia e filosofia del diritto a Nizza e diritto costituzionale comparato ad Aosta.

leggi tutto