Intelligenza artificiale ed esercizi di roboetica

L’intelligenza artificiale è un sistema in grado di istruire altri sistemi (software o hardware). Il software o la macchina costituiscono entità “che s’istruiscono da sé sulla base di logiche apprese”.
Questa osservazione ci può portare all’evidenza che in questo scenario l’uomo non è più centrale ma si delinea una vera autonomia dei sistemi tecnologici.
Da questo punto si possono diramare innumerevoli riflessioni sul design tecnologico delle macchine e dei sistemi basati su machine learning e sull’intelligenza artificiale. Ma può essere aperta una digressione anche sull’etica delle macchine.

Quanto e in che modo l’etica regola il design della tecnologia?
Già Asimov si era posto questo problema comprendendo che un sistema in grado di istruirsi ha bisogno di essere disegnato secondo principi etici o leggi molto chiare.
Nella sua visionaria immaginazione formulò Le Tre leggi della robotica che sono state addirittura riformate con una legge 0 quando comprese il pericoloso scostamento fra interesse pubblico e interesse del singolo.

Le leggi della robotica di Isaac Asimov

Le leggi della robotica secondo Isaac Asimov recitano così:
Legge Zero -  Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.

Prima Legge - Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero
Seconda Legge - Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
Terza Legge - Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Automazione industriale, machine learning e intelligenza artificiale sono sempre state ambito di intensa ricerca soprattutto mosse dalle forze incalzanti di quel capitalismo che ha mirato alla sostituzione dell’uomo con la macchina o alla trasformazione dell’uomo in quanto utente o cliente in una qualche forma di prodotto.
Senza arrivare a prefigurare un mondo irrimediabilmente distopico, si può affermare che tali forze hanno nutrito l’innovazione anche mosse da una visione umanistica che vuole liberare l’uomo dal lavoro e assegnarlo alle macchine.
Possiamo certamente affermare che può esistere una intelligenza artificiale che ha come obiettivo primario quello di migliorare la vita dell’uomo o ridurre l’impatto ambientale dell’uomo.
Possono altresì esistere dei principi guida per la progettazione delle macchine che i grandi innovatori siano pronti a sottoscrivere come un documento programmatico per il futuro.

Alcuni autorevoli detrattori tuttavia affermano a buon ragione che giganti della tecnologia digitale hanno messo in atto ciò che è stato definito " capitalismo della sorveglianza" (Shoshana Zuboff) . In estrema sintesi se decenni fa il web e i motori di ricerca erano considerati e osannati come un mezzo democratico, un luogo di libertà, dove l’informazione scorre veloce, in tempo reale, diventa accessibile e globale, ora emerge in maniera chiara la natura inquietante delle regole attraverso le quali queste macchine si istruiscono da sé.
Gli utenti del web e più in generale le persone si sono rivelate dei generatori inesauribili di quanto può essere considerato il nuovo petrolio: il dato.
Privacy, sicurezza del dato personale e anonimato sono diventati per questo motivo un valore da preservare e proteggere.
La qualità stessa dei servizi si attesta sempre di più proprio sulla capacità di preservare questi dati ed è in questa area che si sta muovendo sempre di più l’innovazione.

Saper raccogliere dati comportamentali senza ledere la privacy, senza minacciare la sicurezza dei dati personali e garantendo al tempo stesso un servizio personalizzato e rilevante diventa il nuovo reale traguardo per chi si occupa di intelligenza artificiale.

Tante sfide in un’unica semplice impresa che non si differenzia molto da un antico e sempre valido principio che dovrebbe regolare lo scambio di capitale in qualsiasi forma manifesta, moneta o dato. Questo principio può somigliare molto ad una versione attualizzata della già citata legge della robotica di Asimov.

Esercizio di roboetica numero 1 - L’intelligenza artificiale non può recare danno all'umanità, né può permettere che, a causa delle proprie regole, l'umanità riceva un danno o una visione contraffatta della realtà.

Insomma il principio guida dovrebbe essere l’utilità reale, il miglioramento dell’esperienza e la sicurezza del dato.
L’innovazione tecnologia ancora una volta può dimostrare di essere in grado di superare il problema della violazione dei dati e può farlo semplicemente ignorandoli o anonimizzandoli all’origine.
Ecco due esempi che ci consentono l’individuazione temporanea di un soggetto attivo, il tracciamento del suo comportamento ma non della sua identità o della sua storia comportamentale.
Il color mapping e radar imaging consentono ad esempio di analizzare l’attività di un utente o cliente allo scopo di modificare l’ambiente circostante in cui si muove il soggetto o al fine di fornirgli input e informazioni rilevanti.

L’ambito di applicazione più appropriato per queste tecnologie è il mondo reale, i negozi, gli uffici e gli spazi pubblici, luoghi in cui il vero significativo apporto in termini di innovazione può venire principalmente da quelle tecnologie in grado di non turbare l’interfaccia naturale dello spazio e dunque dell’esperienza.

Questo tipo di tecnologie ci porta a immaginare una seconda legge per un mondo tecnologico non distopico e realmente guidato da un etica dell’intelligenza artificiale.

Esercizio di roboetica numero 2 - L’intelligenza artificiale non deve turbare l’esperienza naturale e deve tendere ad avere un impatto biometrico pari allo 0.

SUBSCRIBE TO OUR NEWSLETTER

OPENING HOURS

Mon - Fri: 10am - 18pm
​​Saturday: closed
​Sunday: closed

ADDRESS

GET IN TOUCH

Comments are closed.