L’Intelligenza Artificiale e le implicazioni sui diritti umani

0 0

[Traduzione a cura di Luciana Buttini dall’articolo originale di Jonathan Drake pubblicato su openDemocracy]

L’Intelligenza Artificiale sta crescendo a ritmo sostenuto sollevando seri problemi nel campo dell’etica e dei diritti umani.

Voi siete peggio di un idiota; voi non avete alcun rispetto per la vostra specie. Per più di migliaia di anni gli uomini non hanno fatto altro che sognare patti con i demoni. Ora tali cose sono possibili.

Quando, nel 1984, William Gibson scriveva queste parole nel suo romanzo rivoluzionario, Neuromante, l’Intelligenza Artificiale (IA) rientrava quasi interamente nel regno della fantascienza.  Tuttavia, oggi, la convergenza di algoritmi complessi, lo sviluppo di Big Data (o grandi dati), e la crescita esponenziale della potenza di calcolo hanno dato vita a un mondo in cui l’IA solleva una serie di problemi importanti nel campo dell’etica e dei diritti umani, coinvolgendo un insieme di diritti che va da quello alla privacy al diritto a un equo processo. Pertanto, al fine di affrontare tali problematiche ci sarà bisogno di un notevole contributo da parte di esperti di un’ampia gamma di discipline quali le politiche sociali, l’economia, la giustizia penale, l’etica e perfino la filosofia.

Oggi molte nuove invenzioni presentano spesso conseguenze involontarie. Tuttavia, l’IA è unica in quanto le decisioni che danno origine a tali conseguenze vengono solitamente prese senza l’intervento umano. La più grave di queste potenziali conseguenze nefaste scaturisce da sistemi progettati appositamente per apportare danni sin dalla loro creazione, come ad esempio i sistemi di armamento.

Dopo essere state a lungo l’elemento principale dei film di fantascienza, le armi che comprendono vari gradi di autonomia di funzionamento, esistono in realtà da diverso tempo; e le mine terrestri rappresentano uno degli esempi più semplici di questa tecnologia ma anche uno dei più problematici in materia di diritti umani.  Tuttavia, oggi, la scienza dell’IA ha fatto dei passi in avanti al punto da arrivare a pensare ad un’ipotetica costruzione di sofisticati robot completamente autonomi.

A seguito di ciò, nel 2012 è stata lanciata la campagna internazionale “Stop Killer Robots” da parte di una coalizione di ONG, la quale cerca di garantire che la possibilità di prendere decisioni di vita o di morte resti strettamente di competenza dell’uomo. In quello stesso anno anche il ministero della Difesa americano, sebbene non fosse legato a questa campagna, ha emanato la Direttiva 3000.09. Quest’ultima definisce la sua politica e stabilisce che i sistemi di armamento completamente autonomi “devono essere utilizzati soltanto per ricorrere alla forza non letale e non cinetica come alcune forme di attacco elettronico.” Infatti secondo l’attuale politica, la forza letale necessita del controllo umano… Continua su vociglobali


Iscriviti alla Newsletter di Articolo21