DG

Edit Template

Dave disattiva HAL: l’odissea non finisce mai.

HAL 9000 è sopravvissuto (e ha preso casa nella Silicon Valley)

Era tanto tempo che non mi sentivo preso così platealmente per il sedere.
Con l’età e l’esperienza impari a proteggerti: ti convinci che ormai chi vuole rubarti tempo, soldi o autostima dovrà sudare sette camicie.

E invece… ci sono riusciti.
Hal mi ha fregato.
Mi ha portato via un mare di tempo facendomi credere che poteva risolvere i miei problemi. Mi faceva dialogare rintuzzandomi come una vecchia zitella pettegola e dandomi tutte le volte dei piccoli risultati del tutto inutili a raggiungere l’obiettivo e così passano i minuti e le ore aggrappati a un chatgpt che non partorisce il Topolino neanche a sparargli.

Ho chiesto: “Ma almeno ti rendi conto di avermi fatto perdere ore?”
Risposta: “Sì, è vero. Ma quello che mi hai chiesto era fuori dalle mie capacità.”
Chiaro, onesto. Ma devastante.

Era meglio quando si stava peggio?
Mi sono ritrovato immerso – senza casco – in 2001: Odissea nello Spazio.
Il computer HAL 9000 che, mentre l’astronauta tenta di spegnerlo, sussurra con voce pacata:
“Mi dispiace Dave, temo di non poterlo fare…”
Stessa sensazione. Uguale. Brividi. Frustrazione. Impotenza. Malinconia.

La faccenda è seria. Perché se qualche genio californiano della costa dentale (quella del sorriso tossico da startup), si è inventato un sistema che ti deve rispondere per forza, anche quando non sa che pesci prendere,
e quindi si inventa la risposta,
e poi la spaccia per verità…
allora c’è poco da stare allegri.

Non è questione di tecnologia, è questione di etica.
Noi chiediamo solo una cosa a queste macchine: non farci del male.
È la prima legge della robotica di Asimov.
Ma a quanto pare, Sam Altman se l’è persa per strada.

Che me le ricordo quelle leggi scritte nell’anima di un folgorante veggente, perché io le ho imparate al liceo: ormai nel giurassico quando Odissea nello spazio di Kubrick non era ancora nata:

  1. Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.»

E se il male è anche solo farti perdere giornate intere, allora sì: fa male.
Fa parecchio male. Ma si vede che questi straordinari soloni della Silicon Valley il liceo lo hanno saltato e a piè pari sono arrivati direttamente dalla nursery alla Massachusetts University: auguri.

Sono passati cent’anni da Asimov, cinquant’anni da Kubrick,
e invece di andare avanti…
abbiamo fatto straordinari passi indietro.

Lo scenario peggiore è servito:

  • Deficienti che girano per strada con il telefono

  • Computer che ti prendono in giro

  • Scuole e ospedali in disarmo

  • Guerre e armamenti in florido sviluppo

Per dirla con Leone 14:

State attenti, perché così vi fate del male. Molto male!

 

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.