2024-11-18

AI, persone intelligenti e meno, Wikipedia.

 Beh, direi che ormai tutti sappiamo cosa significa questa sigla, sia nella versione italiana (IA) che in quella inglese (AI): intelligenza artificiale.

Non ricordo se ho già detto qualcosa sulla AI: viene chiamata Intelligenza Artificiale, ma al momento è tutto meno che intelligente. O meglio: riesce a capire quello che le stiamo chiedendo (in qualunque lingua), usa il risultato per una ricerca nel suo database, per poi rispondere con brani più o meno lunghi presi dal database, che (sulla base delle sue conoscenze) possono essere collegati tra loro. E fa tutto questo molto bene, tanto che si ha spesso la sensazione di parlare con una persona e da qui l’appellativo di intelligenza. Però… siamo pronti a dire che il secchione compagno di scuola, che imparava tutto a memoria e ripeteva a pappagallo… bene, lo consideravamo intelligente? Risposta: sì, ma non perché si ricordava tutto, ma per altre cose: magari perché riusciva a risolvere un problema di matematica senza averlo mai visto prima; oppure perché riusciva a passare la soluzione ai compagni senza farsi beccare…

Avete provato a dare all’AI un problema di fisica che non sia il solito problemino da una formuletta e via, ma dove sia necessario un ragionamento e un po’ di inventiva? Io sì e alla fine avrei dovuto dare un’insufficienza anche piuttosto grave: l’AI si limita a considerare le formule che conosce e a cercare di metterle assieme, magari anche furbescamente, ma spesso il passaggio ci sta come i cavoli a merenda (suppongo che nessuno li abbia mai mangiati a merenda…).

In qualche caso gli ho dovuto fornire la soluzione corretta: risposta tipica (“hai ragione”), seguita da una soluzione identica a quella errata. Direi che non possiamo definirla proprio intelligenza…

Funziona bene al posto di varie ricerche, man mano raffinate: lì sì! Ha dalla sua la velocità: prima che noi leggiamo una decina di articoli trovati, capiamo che dobbiamo fare una ricerca più ristretta e poi leggere nuovamente i risultati, l’AI ci fornisce già la scrematura finale, magari persino riassunta (provate ad usare Arc Search). Ovviamente, attenzione alle allucinazioni: magari parole identiche hanno significati diversi in contesti diversi ma simili: alla fine dobbiamo sempre controllare che il risultato abbia senso.

Ora, da dove prende i dati per costruire il proprio database? Ma ovvio: dalla rete! Non proprio tutto, ma buona parte: da tutte le cose che vengono pubblicate, anche quello che sto scrivendo proprio ora! In generale, tutto quello che viene considerato nel pubblico dominio.

Pubblico dominio: ci sarebbe un po’ da ridire: in teoria gli unici materiali di pubblico dominio sono quelli contrassegnati da certe sigle o denominazioni: MIT, Creative Commons, spesso nate per le righe di codice dei software e poi estese ad altri casi. Ma quello che sto scrivendo, per esempio, non è contrassegnato da alcuna di queste definizioni. Anzi, per il diritto internazionale (disclaimer: ne so poco, non sono un avvocato o simile), nel momento in cui pubblico un mio pensiero, una mia elaborazione di dati conosciuti o provenienti da miei studi, sto dichiarando al mondo che ciò che ho scritto è mio, non di altri e solo io posso farne qualsiasi uso: in particolare, guadagnarci soldi, sempre che ci sia qualcuno che ne voglia acquisire i diritti (in questo caso, nell’aprire il blog su piattaforma Google, suppongo di aver dato il permesso a Google l’utilizzo di quanto scrivo, ma non ad altri). Se pubblicassi su un dominio mio, su server da me pagato, i diritti sarebbero tutti miei. Spesso infatti le persone di cui è riconosciuta l’autorevolezza su certi argomenti, non pubblica su piattaforme “libere”. Allo stesso modo, in coda ad ogni articolo di giornale online compare “DIRITTI RISERVATI”: quei dati non possono essere usati senza averne legalmente l’accesso tramite accordi. 

A cosa porta questo? Se l’AI può usare solo contenuti free e le informazioni più corrette non sono pubbliche, come faremo a istruire l’AI ad essere intelligente? Il fatto che al momento in certi campi funzioni abbastanza bene vuol dire una delle due cose:

  • le informazioni di pubblico dominio sono molte e corrette
  • — oppure —
  • l’istruzione è avvenuta anche su informazioni non pubbliche

Qualche società editrice sta anche pensando di aggiungere su ogni libro pubblicato la dicitura “non utilizzabile per l’istruzione di Large Language Models”: il risultato sarà che si ridurranno le possibilità di far crescere l’intelligenza delle AI…

Allora arriviamo ad un controsenso (ed è qui il centro del post): esempio, io sono un fisico, non so nulla di come si replica un virus, se non per sentito dire. Per una mia convinzione, scrivo su un po’ di piattaforme che il virus XYZ23H53! assale soprattutto gli uomini nati in inverno ed il cui peso supera i 70 kg; per le donne invece, sono più colpite quelle nate di lunedì o giovedì nel periodo di luna piena. I bot di ricerca dell’AI trovano i miei 10 interventi su altrettanti forum e almeno due post su piattaforme gratis; ma trovano anche almeno un centinaio di forward, post facebook/instagram/tiktok con link di gente convinta che sia vero (state sicuri che un centinaio di persone le troveremmo di sicuro…). Trovano anche due post in pubblico dominio di due scienziati che affermano il contrario, dicendo che non ho prove… ma sono solo due, per di più con pochi riferimenti di poche persone. Che fa l’AI? Darà più ragione alle mie cretinate e magari comincerà a proporle come risposte, a meno che non ci sia un controllo esterno. Quindi, il fatto che le cretinate siano in pubblico dominio e le cose vere no, verrebbe a creare un’intelligenza artificiale stupida!

Tra le possibili fonti, c’è Wikipedia, nei vari sapori wiki e nelle varie lingue. Nonostante ciò che si dice, sono pochi i casi in cui Wikipedia è stata colta in fallo (spesso poco prima che i suoi amministratori correggessero il problema), anzi, il suo coefficiente di affidabilità è al livello delle migliori enciclopedie online (a parte considerazioni legate alla politica…). Tutti i suoi contenuti sono nel libero dominio, per cui vengono usati.

Ora, per chi crea le AI, non è difficile, esaminando un testo, capire se questo è stato creato da un essere carbonio in carne ed ossa o da una AI. Bene, da poco è venuto fuori che almeno circa il 5% dei nuovi contenuti di Wikipedia inglese è stato creato usando ChatGPT!!! Sembra che anche nelle altre lingue il fenomeno esista.

Ci siamo capiti? L’AI usa i contenuti di Wikipedia per istruirsi, ma una parte di tali contenuti viene creata dalla AI! In elettronica o nei problemi di audio si chiamerebbe feedback! Scrivo la cretinata di prima, qualcuno usa l’AI per riempire un vuoto su Wikipedia, l’AI legge quell’articolo e l’affidabilità di quanto scritto cresce e così via.

Wikipedia sta correndo ai ripari, cercando di individuare i contributi falsi; se però il solito pirla cambia un po’ le parole, lasciando il senso, sarà difficile trovarli.

La domanda è: che senso ha una wiki fatta dalla AI?

Il problema torna ad essere: ci fidiamo di qualcosa di cui non conosciamo l’origine? Trasportato nel quotidiano: a chi affidiamo la riparazione della nostra auto super-tecnologica: a un meccanico preparato dalle case automobilistiche o al vicino di casa, di professione impiegato, che è solito guardare i video su YouTube? Quando siamo malati andiamo dal medico o dall’idraulico?

Il discorso si farebbe ancora più profondo: perché qualcuno dovrebbe scrivere su Wikipedia pescando dall’AI invece che dalle proprie conoscenze? Per poter dire che collabora all’enciclopedia libera? Io sono un fisico: posso scrivere (e qualche volta l’ho fatto) su argomenti di Fisica e correlati, ma non di medicina o di letteratura, anche se sono nei miei interessi. Perché dovrei millantare una conoscenza che non ho?

E su questa one-million-dollar-question, mi fermo, perché servirebbero conoscenze approfondite di psicologia e sociologia, che conosco solo superficialmente. Potrei solo dare opinioni, ma non lo faccio: non voglio che una AI le possa prendere per oro colato…

Nessun commento: