HAL 9000 è sopravvissuto (e ha preso casa nella Silicon Valley)
Era tanto tempo che non mi sentivo preso così platealmente per il sedere.
Con l’età e l’esperienza impari a proteggerti: ti convinci che ormai chi vuole rubarti tempo, soldi o autostima dovrà sudare sette camicie.
E invece… ci sono riusciti.
Hal mi ha fregato.
Mi ha portato via un mare di tempo facendomi credere che poteva risolvere i miei problemi. Mi faceva dialogare rintuzzandomi come una vecchia zitella pettegola e dandomi tutte le volte dei piccoli risultati del tutto inutili a raggiungere l’obiettivo e così passano i minuti e le ore aggrappati a un chatgpt che non partorisce il Topolino neanche a sparargli.
Ho chiesto: “Ma almeno ti rendi conto di avermi fatto perdere ore?”
Risposta: “Sì, è vero. Ma quello che mi hai chiesto era fuori dalle mie capacità.”
Chiaro, onesto. Ma devastante.
Era meglio quando si stava peggio?
Mi sono ritrovato immerso – senza casco – in 2001: Odissea nello Spazio.
Il computer HAL 9000 che, mentre l’astronauta tenta di spegnerlo, sussurra con voce pacata:
“Mi dispiace Dave, temo di non poterlo fare…”
Stessa sensazione. Uguale. Brividi. Frustrazione. Impotenza. Malinconia.
La faccenda è seria. Perché se qualche genio californiano della costa dentale (quella del sorriso tossico da startup), si è inventato un sistema che ti deve rispondere per forza, anche quando non sa che pesci prendere,
e quindi si inventa la risposta,
e poi la spaccia per verità…
allora c’è poco da stare allegri.
Non è questione di tecnologia, è questione di etica.
Noi chiediamo solo una cosa a queste macchine: non farci del male.
È la prima legge della robotica di Asimov.
Ma a quanto pare, Sam Altman se l’è persa per strada.
Che me le ricordo quelle leggi scritte nell’anima di un folgorante veggente, perché io le ho imparate al liceo: ormai nel giurassico quando Odissea nello spazio di Kubrick non era ancora nata:
- Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.»
E se il male è anche solo farti perdere giornate intere, allora sì: fa male.
Fa parecchio male. Ma si vede che questi straordinari soloni della Silicon Valley il liceo lo hanno saltato e a piè pari sono arrivati direttamente dalla nursery alla Massachusetts University: auguri.
Sono passati cent’anni da Asimov, cinquant’anni da Kubrick,
e invece di andare avanti…
abbiamo fatto straordinari passi indietro.
Lo scenario peggiore è servito:
-
Deficienti che girano per strada con il telefono
-
Computer che ti prendono in giro
-
Scuole e ospedali in disarmo
-
Guerre e armamenti in florido sviluppo
Per dirla con Leone 14:
State attenti, perché così vi fate del male. Molto male!