Storia ed evoluzione dell’intelligenza artificiale

Riflessioni | 0 commenti

Storia ed evoluzione dell'intelligenza artificiale

Intelligenza artificiale (IA) è un termine diventato ormai di uso comune. Nata come idea avveniristica, entrata piano piano (e spesso inconsapevolmente) nelle nostre abitudini, con l’avvento di Chatgpt è diventato di moda parlarne e molti iniziano a conoscerla meglio e a farci i conti.

Ma la sua storia nasce ben prima di quest’ultima innovazione diffusasi a macchia d’olio. Vediamo quindi cos’è l’intelligenza artficiale, come nasce, come si è evoluta e quali siano benefici e rischi.

[Leggi qui, invece, per una distinzione fra intelligenza artificiale, realtà virtuale e realtà aumentata]

I pionieri della ricerca sull’intelligenza artificiale

Per comprendere appieno l’intelligenza artificiale, dobbiamo risalire ai primi passi nella ricerca di questa invenzione. Torniamo indietro fino al 1950, quando Alan Turing, il genio matematico britannico, propose il celebre “test di Turing” come misura dell’intelligenza di una macchina.

Nell’articolo Computing machinery and intelligence, apparso nel 1950 sulla rivista Mind, Turing propone il “gioco dell’imitazione” per rappresentare l’idea che una macchina possa essere considerata intelligente quando sia in grado di “pensare”, nel senso di capace di concatenare idee e di esprimerle. Per Turing, ciò significa semplicemente produrre espressioni non prive di significato. Può, quindi, di fatto, essere definita come intelligente quando riesce ad ingannare un interlocutore umano facendogli credere di essere anch’essa umana.

Sull’aspettativa che, grazie a software complessi, possano emergere nel dispositivo funzioni intellettuali, si basa la disciplina nota come intelligenza artificiale. Il suo scopo è la costruzione di una macchina capace di riprodurre i processi cognitivi umani.

Tuttavia, negli anni si sono evidenziate le lacune di questa visione, perché talvolta i criteri del test di Turing si sono rivelati facilmente soddisfatti da programmi chiaramente non pensanti. Perciò si sono elaborate versioni successive e più approfondite del test. Così da arrivare a definire un modo maggiormente sicuro per identificare una macchina che possa veramente definirsi “intelligente”.

Test di Turing inverso

Fra le tante versioni proposte per migliorare la prima definizione di macchina intelligente, è interessante il “Test di Turing inverso”, che ha dato origine al famoso CAPTCHA, il metodo che si usa per capire se un sistema automatico stia tentando di forzare l’entrata in parti specifiche di un sito.

Nel “test di Turing inverso” viene capovolto l’obiettivo: è il computer che è messo alla prova per verificare se è in grado di determinare se stia interagendo con un essere umano o con un altro computer.

Il CAPTCHA nasce proprio su questa base. Prima di poter eseguire un’azione su un sito Web, all’utente sono mostrati, ad esempio, dei caratteri alfanumerici in un’immagine grafica distorta, chiedendogli di digitarli. Si basa sul principio che non esista, ad oggi, un software sufficientemente sofisticato da potere leggere e riprodurre questo genere di immagini. Di conseguenza, se si è in grado di farlo, significa che si è degli esseri umani. Neanche a dirlo, subito dopo la nascita del CAPTCHA, sono nati anche sistemi in grado di decriptare un codice Captcha con sufficiente accuratezza…

Dal Dartmouth Workshop alla rivoluzione dell’intelligenza artificiale

Nel 1956, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon organizzarono il Dartmouth Workshop, una conferenza che segnò l’inizio ufficiale della ricerca sistematica sull’intelligenza artificiale. Durante questo incontro, durato diverse settimane, i partecipanti discussero delle potenzialità dell’IA e definirono l’obiettivo di “creare una macchina che possa simulare l’intelligenza umana”. Questo evento storico è considerato la pietra miliare che ha dato il via alla rivoluzione dell’IA.

La proposta di questo progetto fu formulata ufficialmente Il 2 settembre 1955 ed è in essa che si rinviene per la prima volta il termine “intelligenza artificiale”.
Nell’introduzione si legge: “Proponiamo che durante l’estate del 1956 al Dartmouth College di Hanover, nel New Hampshire, venga condotto uno studio sull’intelligenza artificiale di 2 mesi e 10 uomini. Lo studio deve procedere sulla base della congettura che ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa in linea di principio essere descritto in modo così preciso da poter costruire una macchina per simularlo. Si cercherà di scoprire come fare in modo che le macchine utilizzino il linguaggio, formino astrazioni e concetti, risolvano tipi di problemi ora riservati agli umani e migliorino se stesse. Pensiamo che si possa fare un progresso significativo in uno o più di questi problemi se un gruppo accuratamente selezionato di scienziati ci lavora insieme per un’estate”.

L’evoluzione dell’intelligenza artificiale: il gioco degli scacchi

Negli anni successivi, l’intelligenza artificiale ha attraversato varie fasi di sviluppo. Negli anni ’50 e ’60,  algoritmi di ricerca e gioco portarono alla creazione del primo programma di scacchi creato tramite intelligenza artificiale.
Già nel 1950 il matematico Claude Shannon aveva descritto i possibili modi per programmare una macchina a giocare a scacchi. Tuttavia, si accorse presto che era un compito oltre la portata di qualsiasi computer del momento: troppe erano le mosse da considerare.

La stessa linea di pensiero venne seguita contemporaneamente da Alan Turing che vide gli scacchi come terreno ideale per lo sviluppo dell’intelligenza artificiale. Il matematico aveva studiato il gioco sin da quando era al servizio del Department of Communications inglese con lo scopo di decifrare i codici utilizzati dai nazisti per comunicare fra loro durante la Seconda Guerra Mondiale. Codici criptati tramite il cosiddetto sistema Enigma (puoi vedere la storia nel bel film: “the imitation game”).

Verso il 1955 alla Carnegie Mellon University di Pittsburgh, Allen Newell e Herbert Simon iniziarono la progettazione del programma CP-1 (Chess Player 1). Il programma fu completato solo nel 1958, in collaborazione con Cliff Shaw. Tuttavia, vennero battuti sul tempo dall’IBM, che nel frattempo era riuscita a creare un programma in grado di giocare ad una versione semplificata degli scacchi, con una scacchiera 6X6 senza gli alfieri.

Questi programmi furono comunque i primi passi che portarono a sviluppi ulteriori e migliorativi, fino ad arrivare a superare le abilità dei migliori giocatori umani. Come avvennne con Deep Blue di IBM che sconfisse il campione del mondo di scacchi Garry Kasparov in una ormai famosa partita di scacchi nel 1997.

I sistemi esperti

Prima di questo clamoroso risultato, però, negli anni ’70, vennero introdotti i sistemi esperti nell’ambito dell’intelligenza artificiale. Si tratta di programmi informatici progettati per emulare l’expertise e le competenze di specialisti umani in un determinato dominio.

Essi si basano su una vasta conoscenza di uno specifico campo, acquisita attraverso l’interazione con esperti umani e su regole di inferenza logica per risolvere problemi e prendere decisioni. I sistemi esperti consentono di affrontare compiti complessi che richiedono conoscenze specialistiche, come la diagnosi medica, la consulenza legale o la gestione di processi industriali.

Uno dei primi esempi significativi è stato il sistema MYCIN, sviluppato presso la Stanford University negli anni ’70. MYCIN era un sistema di supporto alle decisioni mediche, specializzato nella diagnosi e nel trattamento delle infezioni batteriche del sangue. Era in grado di porre domande, analizzare i dati e fornire raccomandazioni di trattamento basate su una vasta base di conoscenza medica.
Utilizzando circa 500 regole, MYCIN ha mostrato di operare all’incirca allo stesso livello di competenza degli specialisti umani nelle infezioni del sangue e molto meglio dei medici generici.

L’introduzione dei sistemi esperti ha segnato un importante passo avanti nell’applicazione dell’intelligenza artificiale. Ha infatti dimostrato che le macchine potevano essere in grado di ragionare e prendere decisioni simili a quelle di un essere umano specializzato in uno specifico ambito. Ciò ha aperto la strada a ulteriori sviluppi nel campo dell’IA e ha contribuito a diffondere l’uso dei sistemi esperti in vari settori applicativi.

L’apprendimento automatico

L’apprendimento automatico, noto anche come machine learning, è una sottodisciplina dell’intelligenza artificiale. Essa si occupa di sviluppare algoritmi e modelli che consentono ai computer di apprendere e migliorare le prestazioni in modo autonomo, senza essere esplicitamente programmati per compiti specifici.

A differenza della programmazione tradizionale, in cui un programmatore definisce le regole esatte e le istruzioni per risolvere un problema, nell’apprendimento automatico il computer impara dai dati e dai modelli che vengono forniti. L’obiettivo è sviluppare algoritmi che possano estrarre automaticamente pattern, relazioni e informazioni significative dai dati, per fare previsioni, prendere decisioni o svolgere compiti specifici.

Per ottenere questa comprensione si possono usare diversi modi (di fatto, degli algoritmi): l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento rinforzato. Nell’apprendimento supervisionato, il modello viene addestrato su un insieme di dati di input e output noti, in modo da poter fare previsioni o classificazioni su nuovi dati. In quello non supervisionato, il modello cerca di scoprire modelli o strutture nascoste nei dati senza l’uso di etichette o output noti. Nell’apprendimento rinforzato, il modello apprende attraverso un processo di prova ed errore, ricevendo feedback e ricompense in base alle azioni compiute.

Le origini

Le radici di questa branca di studi risalgono agli anni ’50 e ’60, ma il suo sviluppo e la sua crescita sono continuati nel corso delle decadi successive. Alcuni dei primi lavori pionieristici nell’apprendimento automatico includono le ricerche di Arthur Samuel sul gioco della dama nel 1956, che ha introdotto il concetto di “apprendimento a rinforzo” per insegnare alle macchine a migliorare le proprie prestazioni attraverso l’esperienza.

Negli anni ’70 e ’80, sono stati poi sviluppati e raffinati vari algoritmi di apprendimento automatico, come le reti neurali artificiali. In particolare, è il lavoro di Geoffrey Hinton e dei suoi colleghi negli anni ’80 che ha contribuito a stimolare una rinascita dell’interesse per le reti neurali e l’apprendimento automatico, contribuendo in modo sostanziale al deep learning. Quest’ultimo è un sottoinsieme del machine learning, in cui gli algoritmi di reti neurali artificiali sono modellati per funzionare come l’apparato cerebrale umano, imparando da grandi quantità di dati.
Negli anni ’80, Hinton scoprì il sistema di “apprendimento con retropropagazione dell’errore” (backpropagation), un algoritmo chiave per l’addestramento delle reti neurali profonde.

Hinton ha continuato a lavorare sull’apprendimento profondo e ha contribuito allo sviluppo di modelli di rete neurale sempre più complessi, come le reti neurali convoluzionali (CNN) e le reti neurali ricorrenti (RNN). Modelli che hanno dimostrato una notevole efficacia in compiti come visione artificiale, riconoscimento del linguaggio naturale e molti altri.

Anni ’90 e oltre

È però grazie all’avvento di computer sempre più potenti e l’accesso a grandi quantità di dati negli anni ’90 che l’apprendimento automatico ha conosciuto una crescita significativa. Sono stati sviluppati nuovi algoritmi e tecniche, come le macchine a vettori di supporto (SVM) e gli alberi decisionali, che hanno ampliato le applicazioni dell’apprendimento automatico.

Macchine a vettori di supporto

Le macchine a vettori di supporto (SVM) possono essere utilizzate per diverse applicazioni pratiche nell’ambito dell’apprendimento automatico e dell’intelligenza artificiale, come:

  1. Classificazione: sono ampiamente utilizzate per la classificazione di oggetti in diverse categorie. Ad esempio, possono essere impiegate per distinguere email spam da email legittime, riconoscere oggetti in immagini, classificare dati biomedici in categorie diagnostiche e molto altro ancora.
  2. Regressione: le SVM possono essere utilizzate anche per problemi di regressione, Ad esempio, per stimare il prezzo di una casa in base a diverse caratteristiche o per prevedere la domanda di prodotti in base a fattori di mercato.
  3. Riconoscimento di pattern: sono efficaci, inoltre, nel riconoscimento di pattern complessi. Si possono sfruttare per riconoscere e categorizzare immagini, segnali audio, sequenze temporali, ecc.. Si usano anche per il riconoscimento di scrittura a mano, di volti, di modelli di linguaggio naturale e molte altre applicazioni di analisi dei dati.
  4. Supporto alla decisione: possono fornire un aiuto alle scelte in diversi contesti. Ad esempio, nel filtraggio e classificazione di documenti, nella raccomandazione di prodotti o servizi, nella selezione di caratteristiche rilevanti nei dati.

Negli ultimi anni, con l’esplosione dei dati e l’aumento delle risorse di calcolo, l’apprendimento automatico è diventato sempre più pervasivo.

I benefici dell’intelligenza artificiale

Nonostante l’intelligenza artificiale desti spesso preoccupazione per una serie di implicazioni etiche che trascina con sé, apporta anche indubbi benefici. Essa sta rivoluzionando settori come la medicina (consentendo diagnosi più accurate e personalizzate), la robotica (rendendo possibile l’automazione industriale e la creazione di robot collaborativi) e l’economia (grazie all’analisi dei dati che permette di prendere decisioni informate). L’IA può, in generale, migliorare la sicurezza, la mobilità, l’accessibilità e l’esperienza dell’utente in molteplici ambiti.

Se ci spaventa l’idea che l’IA possa sostituire l’uomo in molti lavori, dovremmo però vederne la possibilità di affiancamento per potenziare le capacità delle persone e rendere il loro lavoro più semplice, liberandole da ripetitività e automatismi e lasciando spazio alle mansioni più creative e interessanti.

I rischi dell’intelligenza artificiale

Tuttavia, è indubbio che porti con sé anche dei rischi. I principali, rientrano nella tutela di privacy e sicurezza dei dati, nell’automazione (e la conseguente perdita da parte delle persone) dei posti di lavoro, nel pericolo che essa sia usata per scopi criminali. Non ultimo, sono da considerare anche i forti pericoli di discriminazioni e pregiudizi che si sono rilevati nell’applicazione di questi sistemi.

Sembra apparentemente un controsenso immaginare che una fredda macchina possa avere dei preconcetti. Tuttavia, non dobbiamo dimenticare che essa  riflette le informazioni e i dati di addestramento che le sono forniti per il suo apprendimento. Se questi contengono pregiudizi o disuguaglianze, l’IA può imparare e replicarli nei suoi output.

I pregiudizi dell’intelligenza artificiale

Sono diverse le ragioni per cui l’intelligenza artificiale può operare discriminazioni:

  1. Bias nei dati di addestramento: se i dati utilizzati per l’IA sono sbilanciati o rappresentano in modo distorto la realtà, l’IA può assimilare tali storture. Ad esempio, se in un sistema di selezione del personale, i dati di addestramento sono dominati da candidati di un determinato genere o provenienti da un certo background, l’intelligenza artificiale può tendere a favorire tali gruppi nel processo di selezione.
  2. Bias nel processo di etichettatura dei dati: se gli esseri umani etichettano i dati di addestramento, questi possono essere influenzati dai loro pregiudizi personali o culturali che sono assorbiti dall’IA durante il processo di apprendimento.
  3. Bias nel design dell’algoritmo: alcuni algoritmi di apprendimento automatico possono introdurre implicitamente dei pregiudizi nel loro design. Ad esempio, se un algoritmo assegna un peso maggiore a determinate caratteristiche può portare l’IA a produrre risultati parziali o discriminatori.
  4. Assenza di dati rappresentativi: se un modello di intelligenza artificiale non ha a disposizione dati rappresentativi di diverse categorie o gruppi, potrebbe non essere in grado di generalizzare correttamente e mostrare discriminazioni quando si tratta di casi non visti in fase di addestramento.

Possibili rimedi

È evidente che un aspetto importante nello sviluppo dell’IA sia proprio quello di porre un’estrema attenzione alla strutturazione di algoritmi e sistemi più equi ed etici. Questo si può fare attraverso l’uso di dati di addestramento più diversificati, l’etichettatura degli stessi in modo consapevole e imparziale, la revisione critica degli algoritmi e l’adozione di approcci di apprendimento automatico che minimizzino i pregiudizi o li gestiscano in modo trasparente.

La regolamentazione esiste proprio per quello. Già nell’aprile del 2019, l’UE ha scritto con l’aiuto di 52 esperti il suo codice etico contenente le linee guida sull’utilizzo dell’intelligenza artificiale. Nel 2021 ha proposto il suo primo quadro normativo in tale ambito che dovrebbe arrivare alla versione finale entro la fine del 2023.

Conclusioni

L’intelligenza artificiale ha percorso un cammino straordinario dalla sua nascita ai giorni nostri. Dagli albori della sua ricerca fino alle attuali applicazioni pratiche e alle prospettive future, l’IA ha dimostrato un potenziale rivoluzionario. Nonostante ciò, o forse proprio a causa di questo, i timori su sviluppi ulteriori che non considerino a sufficienza aspetti etici e morali preoccupa molti.

Come sottolineo sempre, non è lo strumento in sé ad essere buono o cattivo, ma l’uso che decidiamo di farne.
Ritengo che l’IA andrebbe fatta evolvere sempre di pari passo ad un’analisi attenta dei rischi e ad una serie di regole che non permettano di farsi sfuggire la situazione di mano.
Il progresso, perché sia veramente tale e non rischi di trasformarsi, come nel peggiore degli incubi, nel suo opposto, deve sempre essere accompagnato da alti valori e principi umani.

Spetta a noi come persone guidare e plasmare il suo corso verso un futuro in cui umanità e intelligenza artificiale possano coesistere armoniosamente per il bene comune.

Grazie per avere letto questo articolo. Se non vuoi perderti i prossimi, iscriviti subito alla newsletter.
Oppure lasciami un commento qui sotto. Per me i tuoi spunti sono preziosi!

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Per potere inviare il commento è necessario leggere e accettare la normativa sulla privacy (vedi sotto)
Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per maggiori dettagli su come trattiamo i tuoi dati personali, prendi visione della nostra Informativa sulla privacy.