2024-08-27

Della privacy, della libertà e della censura

Anticipo la domanda finale del post: "chi controlla i controllori?"

Attualmente vedo un problema in due casi importanti.

Il primo è l'istruzione dei sistemi di intelligenza artificiale: è stato posto da un po' di tempo e le discussioni si ampliano, tanto che in qualunque congresso su qualunque argomento oggi si può trovare una sezione sulla AI (o IA, a seconda della lingua usata).

Ormai sappiamo che di vera intelligenza ce n'è poca: il software viene istruito tramite la lettura di giga e giga di roba a disposizione nel web. Il software esamina la sequenza di parole e si costruisce un database di sequenze, ciascuna con la sua probabilità, che andrà ad usare nelle risposte. Velocità, memoria smisurate, ma non intelligenza.

I risultati sono miracolosi: le risposte, velocissime, hanno senso compiuto, tali da dare l'idea di un qualcosa di senziente. Più si definisce un contesto di lavoro (p.es. linguaggi di programmazione), migliore sarà la risposta, ma si tratta sempre di infilare una parola dietro l'altra. Provate a chiedere la soluzione ad un problema di Fisica appena più complesso e vedrete che di intelligente c'è poco.

Si è sempre detto che se si inserisce una sciocchezza in un computer, il risultato sarà una sciocchezza ancora più grande: siamo allora sicuri che non stiamo istruendo una AI con delle cretinate?

Esempio: se aumentasse la frequenza di post che affermano la Terra essere piatta, diventerebbe probabile che l'AI, alla domanda "qual è la forma della Terra?", invece di "geoide" risponda "un disco piatto": gli è stato insegnato così. Supponiamo che ad un giovane di una tribù con pochi contatti con la nostra civiltà, venga dato un dispositivo che parla e ascolta (ChatGPT è in grado di farlo senza problemi); il ragazzo è curioso e chiede "ma la Terra che forma ha?"; il dispositivo gli risponde "è un disco piatto" ed ecco generato un bel fake nella giungla.

Una cosa del genere è più probabile nei casi di attualità ("spiegami l'importanza di quel politico") e ne sanno qualcosa i volontari moderatori di Wikipedia, ma non solo. Esempio: ci sono aziende che usano l'AI per selezionare i CV degli aspiranti, basandosi su schemi comuni, per cui se si sgarra dalla normalità, si viene scartati (notare che questo è l'esatto contrario di quanto si diceva tempo fa: scrivete un curriculum un po' diverso, per potervi distinguere dalla massa: oggi un genio verrebbe scartato dall'AI...).

Quindi il problema è: chi deve decidere che materiale fornire ad una AI? Aggiungiamo che la società dietro ad una AI tende a non fornire il meccanismo di digestione dei dati, per cui è anche difficile prevedere il risultato di una scelta.

Quello a cui probabilmente si arriverà sarà che ogni azienda AI dovrà comporre un "comitato di saggi", che deciderà cosa andrà a finire nel database dell'AI (che dovrà anche essere aggiornato, quindi lavoro assicurato per anni a venire). La scelta delle persone rifletterà il pensiero dell'azienda e quindi i risultati forniti dall'AI. Possiamo sperare che le varie aziende di AI (comprese le open source) appartengano un po' a tutte le correnti in ogni campo, in modo da avere punti di vista diversi; quindi prima di avere una risposta dovremo consultarne molte? Uhm, costoso... Allora prevediamo una super-AI che faccia la domanda a tutte le AI in circolazione e poi ne faccia il riassunto? Ma chi decide come farlo? 


Cambiamo campo: problema simile ma meno noto, perché coinvolge una parola tabù: la censura, anche se sotto forma di privacy o simili.

In questi giorni è stato arrestato in Francia Pavel Durov, il fondatore del sistema di messaggistica Telegram (sito ufficiale). Le notizie sono poche, ma si pensa che il problema sia il rifiuto di eliminare alcuni contenuti relativi a droga, pedofilia, terrorismo e compagnia bella. Ma soprattutto il negare l'accesso al sistema per le indagini relative agli stessi reati. Lasciamo perdere la figura di Durov, piuttosto discussa, ma tanto quanto quella di Musk, sull'altro lato dell'oceano.

Certo, se parliamo di terrorismo, pedofilia e simili, saremo tutti d'accordo nel pretendere da Telegram l'eliminazione del materiale ed i dettagli degli account. Ma quando la stessa piattaforma viene usata in regimi totalitari? Il regime di un paese vorrà sapere chi sta complottando per far uscire un perseguitato politico. Allora per un regime vogliamo usare regole differenti? Ma chi decide che un paese è una dittatura?

Andiamo oltre: viene creata una legge che costringe le piattaforme come Telegram a rivelare le identità degli account su richiesta della magistratura di un qualunque paese. Ciascuno di noi dirà: "bene, chisseneimporta se si sa che tifo Inter? Non ho nulla da nascondere".

Ok, ora spostiamoci in un futuro dispotico, tipo "1984" (dovremo trasporre l'anno, però) e in Europa vige l'Impero del Lupo Marrone, un tiranno che mantiene il potere con elezioni truccate. Il signor Ollig sta costruendo una rete segreta: questa però viene scoperta dalla Polizia Marrone con mezzi perfettamente legali, perché Ollig usa Telegram per comunicare. In quel caso saremmo tutti d'accordo?

Chiarisco: non sto dalla parte di Telegram, che attualmente copre reati anche ributtanti; mi sto solo chiedendo chi potrà essere in futuro a decidere cosa sia un reato.

Come era chiaro già all'inizio, non ho la soluzione in tasca e purtroppo penso non ce l'abbia nessuno. Ma credo sia utile discuterne, soprattutto quando se ne parla poco. E ripropongo la domanda: chi controlla i controllori?

Nessun commento: