Cos’è l’intelligenza artificiale e come viene utilizzata

Cos'è davvero l'intelligenza artificiale e dove viene usata? Oggi è molto più diffusa di quello che si potrebbe pensare, in praticamente ogni settore

Foto di Mirko Ledda

Mirko Ledda

Editor e fact checker

Scrive sul web da 15 anni, come ghost writer e debunker di fake news. Si occupa di pop economy, tecnologia e mondo digitale, alimentazione e salute.

Pubblicato: 30 Aprile 2024 10:00

Sentiamo sempre più spesso parlare di intelligenza artificiale. Questo insieme di tecnologie, che un tempo apparteneva solo al regno della fantascienza, oggi è una realtà che si manifesta in ogni settore, dalla gestione dei dati all’assistenza sanitaria, passando per l’automazione industriale e l’interazione quotidiana con i dispositivi intelligenti. È presente ormai in ogni apparecchio che usiamo quotidianamente.

Negli ultimi tempi gli strumenti di AI generativa, che permettono di produrre testi, immagini e stringhe di codice di programmazione da comandi testuali, sono diventati di uso comune, scatenando la preoccupazione di creativi e colletti bianchi. Ma facciamo chiarezza sulle definizioni e gli scenari futuri.

L’intelligenza artificiale degli albori e il Test di Turing

L’intelligenza artificiale si basa sull’idea di conferire alle macchine capacità di apprendimento e decisionali che simulano l’intelligenza umana, ma operano a una velocità e con strumenti che l’uomo non può eguagliare.

Si iniziò a parlarne seriamente in ambito accademico nel 1950, quando Alan Turing pubblicò un celebre articolo che introduceva il concetto di macchine pensanti. Esiste anche un esperimento ideato dal matematico e filosofo britannico per valutare l’intelligenza delle macchine.

Secondo il Test di Turing, se una persona interagisce tramite una comunicazione testuale con un interlocutore nascosto che può essere sia un umano che una macchina e non riesce a distinguere se questi sia umano o no, allora la macchina può essere considerata intelligente.

In realtà per emulare il nostro comportamento e ingannarci bastano macchine programmate nel modo corretto. Oggi l’esperimento non è particolarmente attendibile per valutare le capacità di un software. Grazie alle teorie dell’esperto, però, venne definita una cornice teorica che diede la direzione verso cui iniziarono a svilupparsi le nuove tecnologie.

Dal 1956 a oggi: i primi 70 anni di intelligenza artificiale

La parola artificial intelligence fece la sua prima apparizione nel 1956 a una conferenza del Dartmouth College e da lì divenne un campo di ricerca riconosciuto in tutto il mondo. Già dieci anni dopo venne sviluppato il primo programma in grado di simulare una conversazione umana, la “terapista virtuale” Eliza di Joseph Weizenbaum, che riconosceva le parole chiave dell’input e forniva risposte pre-programmate.

Il settore ha visto negli anni fasi alterne di intenso entusiasmo e periodi di stagnazione, noti come inverni dell’IA, durante i quali i finanziamenti e l’interesse pubblico si sono raffreddati a causa delle aspettative non soddisfatte. Gli anni ’80 hanno segnato un punto di svolta grazie ai progressi nell’apprendimento automatico e nella capacità di elaborazione dei computer, ponendo le basi per le tecnologie odierne.

Negli anni ’90 arrivarono macchine in grado di battere gli esseri umani in giochi di abilità, come Deep Blue dell’Ibm, che sconfisse il campione del mondo di scacchi Garry Kasparov. Tanti i suoi rivali nel tempo, in grado di eseguire compiti via via più complessi.

Tanti software e sistemi di uso comune, da quelli per la videoscrittura e il fotoritocco fino ai motori di ricerca e agli assistenti virtuali, hanno iniziato a integrare moduli e funzioni di intelligenza artificiale, anche se non direttamente controllabili dall’utente, e per questo meno visibili.

La vera rivoluzione è arrivata nel 2020 con il rilascio del più potente modello di linguaggio generativo mai concepito, il Gpt-3 di OpenAi, integrato nell’interfaccia di ChatGPT, in grado di scrivere testi coerenti e quasi indistinguibili da quelli prodotti dagli esseri umani. L’interesse dei media e delle Big Tech per questo tipo di tecnologie ha accelerato il loro sviluppo e oggi sono presenti sul mercato decine di competitor.

Che differenza c’è tra robot e intelligenza artificiale?

La distinzione tra robot e intelligenza artificiale spesso genera confusione, anche a causa di un errato uso di questi termini in film e romanzi di fantascienza, ma è fondamentale per comprendere l’ambito di applicazione e le capacità di queste tecnologie.

Un robot è essenzialmente una macchina meccanica dotata di sensori e componenti che gli permettono di interagire con il mondo fisico. Questi dispositivi possono essere programmati per eseguire compiti specifici e possono includere elementi di automazione. Tuttavia non necessariamente possiedono capacità di apprendimento o di adattamento autonomo, caratteristiche invece proprie dell’AI.

I sistemi di intelligenza artificiale invece simulano processi cognitivi umani come l’apprendimento, il ragionamento e l’adattamento a situazioni nuove. Possono essere implementati in un robot per conferirgli capacità avanzate, come la navigazione autonoma o la risoluzione di problemi complessi, ma possono funzionare anche in ambienti completamente virtuali, come nelle analisi di dati o nei motori di ricerca.

Come funzionano i sistemi di intelligenza artificiale

Come già detto, l’intelligenza artificiale opera attraverso algoritmi e modelli che imitano il processo decisionale umano, sfruttando principalmente tecniche machine learning e reti neurali profonde.

L’apprendimento automatico permette ai sistemi di imparare dall’esperienza e dai dati forniti per migliorare le proprie prestazioni, senza essere esplicitamente programmati per ogni singola attività. Si divide in:

  • apprendimento supervisionato, in cui i dati di input sono già etichettati da un essere umano;
  • apprendimento non supervisionato, in cui è la macchina a scoprire strutture nascoste senza una guida specifica che la conduca al risultato desiderato.

Le reti neurali, ispirate al funzionamento del cervello umano, sono sistemi di nodi interconnessi che processano le informazioni in strati successivi, permettendo un’elaborazione complessa e profonda dei dati.

Quali sono i tre tipi di intelligenza artificiale

L’intelligenza artificiale si divide principalmente in tre categorie:

  • IA debole;
  • IA forte;
  • IA generale o AGI.

L’IA debole, o intelligenza artificiale stretta, è progettata e addestrata per compiere compiti specifici, come il riconoscimento facciale o le risposte automatizzate dei chatbot. È la più comune e la meno complessa in termini di capacità cognitive. Anche modelli particolarmente complessi come ChatGPT o Stable Diffusion rientrano in questa categoria.

L’IA forte mira a simulare l’intelligenza umana a un livello più profondo, con la capacità di comprendere e ragionare su un’ampia gamma di attività, non limitandosi a compiti specifici. È ancora largamente teorica e non è stata pienamente realizzata nella pratica.

L’intelligenza artificiale generale o AGI rappresenta un ulteriore sviluppo, con l’obiettivo di far eseguire all’AI qualsiasi compito intellettuale che un essere umano è capace di svolgere.

Rimane un obiettivo a lungo termine per i ricercatori, anche se il suo potenziale impatto sulla società e l’economia è motivo di ampio dibattito e speculazione. A iniziare dai lavoratori sostituiti con la creazione di macchine in grado di replicare in tutto e per tutto il comportamento umano.

Come viene utilizzata oggi l’intelligenza artificiale

Anche se non è sempre chiaro il suo coinvolgimento, l’intelligenza artificiale è già applicata in diversi campi per eseguire una grande numero di mansioni e incarichi:

  • internet e dispositivi mobili, con gli assistenti virtuali come Alexa e Siri, traduttori simultanei come Google Translate e le fotocamere degli smartphone che migliorano le foto e sono in grado di leggere i testi;
  • intrattenimento, per la creazione di testi, foto e video e con l’analisi dei gusti dell’utente per consigli personalizzati, come avviene su Spotify, YouTube o Netflix;
  • finanza, per il trading e la prevenzione delle truffe e con modelli predittivi di rischio per prestiti e polizze assicurative;
  • e-commerce e vendita al dettaglio, attraverso l’analisi dei dati dei clienti per generare consigli personalizzati e sistemi per l’inventario e lo stoccaggio dei prodotti;
  • cultura e scuola, con sistemi che adattano le lezioni al livello di apprendimento degli studenti;
  • trasporti, con mezzi già capaci di navigare senza l’intervento umano o che assistono chi li guida, prevenendo incidenti, e sistemi di navigazione che calcolano le rotte migliori;
  • industria, per la manutenzione dei macchinari e l’automazione della produzione;
  • medicina e salute, con algoritmi che analizzano immagini ed esami per identificare i segni precoci delle malattie, macchinari che seguono i chirurghi in sala operatoria, sistemi di gestione dei pazienti e dei piani di cura;
  • sicurezza e sorveglianza, con il riconoscimento facciale e l’analisi comportamentale, usati anche per prevenire crimini e incidenti.