AI: piccolo vocabolario essenziale

Un buon discorso sull'intelligenza artificiale presuppone una conoscenza sempre aggiornata: data la rilevanza dell'argomento, e la crescente pervasività delle sue realizzazioni nella vita delle persone, proponiamo una sorta di vocabolario minimo che permetta all'utente poco esperto di padroneggiarne le nozioni più ricorrenti. 

Uno dei problemi più frequenti quando si sente parlare di intelligenza artificiale riguarda un certo limite lessicale, dietro il quale si cela una scarsa conoscenza dell’argomento. In questo senso, televisione e stampa generalista non fanno eccezione, riflettendo e al tempo stesso contribuendo ad alimentare un pericoloso analfabetismo: perché l’IA ha ormai permeato a fondo il mondo che ci circonda, e ignorarla significa rinunciare a comprendere molte delle dinamiche che caratterizzano il nostro presente. A ben vedere, le cause di questo problema hanno a che fare da un lato con una dimensione culturale (non è certo un mistero il fatto che, nel nostro Paese, il tasso di digitalizzazione della popolazione rimanga al di sotto della media europea), dall’altro con una vera e propria barriera linguistica, poiché la maggior parte dei concetti attinenti alla sfera dell’IA è espressa in lingua inglese (anch’essa mediamente poco conosciuta dai nostri connazionali). D’altro canto, è impossibile non considerare quanto i ritmi dell’innovazione tecnologica in questo ambito siano sostenuti, impedendo di fatto quel fondamentale processo di sedimentazione linguistica che è alla base della costruzione di qualsiasi vocabolario.       

Per tenersi alla larga dai “rischi” di questo analfabetismo di fondo, è utile tenere a mente alcuni concetti fondamentali, in modo da potersi orientare tra le novità di un mondo in continua evoluzione. Una buona conoscenza presuppone sempre la disponibilità di un lessico adeguato: per questo motivo, si è pensato di costruire un dizionario piccolo ma indispensabile, con cui definire l' ”ABC” della disciplina e fronteggiare con maggiore consapevolezza le sfide che essa offre: un’agile “guida” per capire immediatamente di cosa parliamo quando parliamo di intelligenza artificiale.

A

Analisi predittiva: insieme di tecniche di machine learning (ML) e statistiche per analizzare dati passati e prevedere eventi futuri. Le sue applicazioni variano dalla finanza al marketing, passando per la sanità. 

Apprendimento automatico (machine learning): branca dell’intelligenza artificiale che si concentra sullo sviluppo di algoritmi in grado di imparare e migliorare automaticamente le proprie funzionalità. È impiegato nella risoluzione di problemi complessi, come la previsione delle tendenze del mercato e la diagnosi delle malattie. Contempla tre sistemi principali:

1. Supervisionato: consiste nel fornire al software una serie di nozioni specifiche e codificate, ossia di modelli ed esempi che permettono di costruire un database di informazioni ed esperienze: posto un certo problema, la macchina non dovrà far altro che attingere alle esperienze inserite nel proprio sistema, analizzarle e decidere quale risposta dare sulla base di queste esperienze (algoritmi addestrati in questa modalità sono applicati soprattutto al settore medico e a quello dell’identificazione vocale).

2. Non supervisionato: lavora con informazioni non codificate, ossia attinge a determinate informazioni senza avere esempi del loro utilizzo: dovrà pertanto essere la macchina stessa a catalogare tutte le informazioni in suo possesso, organizzarle ed imparare il loro significato, il loro utilizzo, quindi il risultato a cui esse portano. Rispetto al sistema precedente, offre una maggiore libertà di scelta al software.

3. Rinforzato: più complesso dei precedenti, denota una modalità per cui la macchina viene dotata di sistemi e strumenti in grado di migliorare l’apprendimento e di comprendere le caratteristiche dell’ambiente circostante, fra i quali telecamere, GPS, sensori.                                                                        

Apprendimento profondo (deep learning): sottocategoria dell’apprendimento automatico, indica quella branca dell’intelligenza artificiale che fa riferimento ad algoritmi ispirati alla struttura e alla funzione del cervello umano, noti come “reti neurali artificiali”. Le architetture di deep learning sono state applicate alla computer vision, al riconoscimento automatico della lingua parlata, all’elaborazione del linguaggio naturale, al riconoscimento audio e alla bioinformatica.

Architettura di rete neurale: modello di IA ispirato alla struttura e al funzionamento del cervello umano.

Assistente virtuale: applicazione basata sull’IA in grado di svolgere funzioni di supporto all’attività dell’utente (es. prenotazione appuntamenti, ricerca rapida di informazioni, traduzione automatica).

 

B

Backpropagation: algoritmo utilizzato nella formazione di modelli di rete neurale artificiale: consiste nella regolazione dei pesi all’interno della rete, al fine di migliorarne le prestazioni di previsione.

Batch Normalization: tecnica di normalizzazione dei dati da utilizzare durante il processo di formazione dei modelli. Consente due vantaggi fondamentali: previene il sovraccarico della rete neurale (garantendone un funzionamento più stabile e preciso) e permette un addestramento più rapido del modello.

Behavioral Cloning: tecnica di apprendimento che cerca di duplicare il comportamento umano, tramite l’impiego di un apposito modello di reti neurali.

Benchmarking: tecnica utilizzata nella valutazione delle prestazioni di un modello di IA, che si ottiene tramite comparazione con gli standard di riferimento.

 

Chatbot: anche noto come chatterbot, designa un sistema di intelligenza artificiale in grado di simulare la conversazione con un utente umano.

Classificazione: processo di assegnazione di una categoria o di un’etichetta a un dato in base alle sue caratteristiche. Tra i compiti più comuni dell’IA, è utilizzato in applicazioni volte a determinare, per esempio, l’appartenenza di una e-mail alla categoria “spam” o “non spam”. Inoltre, questo processo ispira una delle tecniche fondamentali di preprocessing previste dall’analisi NLP: il Part- of-Speech Tagging (POS). 

Cognitive Computing: approccio interdisciplinare mirato alla creazione di sistemi di IA che imitano il pensiero umano.

Computer Vision: frontiera attualmente più avanzata dell’intelligenza artificiale nel campo dell’elaborazione di immagini e video. 

Context Awareness: capacità di un sistema di IA di capire e utilizzare informazioni sul contesto per fornire una risposta più precisa alla richiesta dell’utente.

Cross-validation: tecnica impiegata per valutare la precisione di un modello di IA: quest’ultimo viene addestrato su un determinato sottoinsieme di dati e viene testato su un altro sottoinsieme di dati.

D

Data Augmentation: tecnica utilizzata per ampliare la quantità di dati impiegati nell’addestramento del modello; contribuisce a prevenire il sovraccarico di dati e migliora la precisione del modello.

Data Mining: processo finalizzato all’estrazione di informazioni significative da grandi quantità di dati.

Data Preprocessing: processo che consiste nell’elaborazione e nella pulizia dei dati prima che vengano utilizzati per addestrare un modello di IA. 

Data Science: disciplina che interseca la scienza dei dati, la statistica e l’IA per estrarre informazioni rilevanti da grandi masse di dati. 

Decision Tree: algoritmo di apprendimento automatico che ricorre ad un diagramma ad albero per prevedere i risultati basati su un insieme di input.

 

E

Emotion Recognition: tecnologia che utilizza l’IA per riconoscere e classificare le emozioni umane da fonti come l’espressione facciale, la voce e altri segnali non verbali.

Entity Recognition: tecnologia che ricorre all’intelligenza artificiale per identificare e classificare entità come nomi propri, luoghi, organizzazioni e altro in un testo.

 

F

Feature: variabile o caratteristica utilizzata come input per un modello di apprendimento automatico. Per esempio, se si vuole prevedere se una persona ha il diabete, le feature potrebbero essere l’età, il peso, l’altezza, la pressione sanguigna.

Feature Extraction: processo che consiste nell’identificare e selezionare le caratteristiche più rilevanti da utilizzare come input per un modello di apprendimento automatico.

Federated Learning: tecnologia di apprendimento automatico che permette di addestrare modelli di intelligenza artificiale sui dati di molte fonti, senza che questi vengano condivisi o trasferiti, garantendo così il rispetto della privacy dei dati.

Forecasting: tecnica che utilizza modelli di apprendimento automatico per prevedere eventi futuri sulla base di dati storici. Ad esempio, un modello di forecasting può prevedere la domanda futura di un prodotto.

 

G

Generative Model: tipo di modulo IA utilizzato per generare nuovi dati a partire da un set di dati. 

Game Theory: branca della matematica che studia i comportamenti strategici in situazioni competitive o cooperative. Nell’IA, è impiegata per modellizzare e analizzare le interazioni tra agenti intelligenti.

Graph: struttura di dati che rappresenta relazioni tra elementi.


H

Human-in-the-Loop: condizione che fa riferimento all’integrazione di un essere umano nei processi automatizzati dell’IA, ad esempio per fornire input ad un sistema o supervisionare i risultati. 

Hypertuning: ottimizzazione dei parametri di un modello di intelligenza artificiale allo scopo di migliorarne le prestazioni su un determinato compito.

I

Image Recognition: funzione propria di un modello di IA volta all’identificazione e alla classificazione di oggetti, persone, paesaggi e altri elementi contenuti in un’immagine. È impiegata in molte applicazioni, dalla sicurezza delle informazioni alla fotografia digitale, passando per i sistemi di assistenza alla guida. 

Image Synthesis: creazione di immagini artificiali attraverso moduli di IA. Questo campo di ricerca sta evolvendo rapidamente, interessando vari settori dell’industria, dalla moda (es. creazione di nuove texture) al gaming (es. personalizzazione dei personaggi in un gioco).

Imitation Learning: apprendimento di un comportamento da parte di un sistema di intelligenza artificiale attraverso l’osservazione delle azioni compiute da un essere umano.

 

Language Model: modulo di IA addestrato su grandi quantità di testi per prevedere il testo successivo in una frase o documento. Questo modello è in grado di assolvere funzioni che vanno dalla traduzione automatica alla generazione automatica di testo. 

Large Language Model (LLM): ultimo stadio dell’evoluzione dei modelli di linguaggio, consiste in sistemi addestrati su enormi quantità di testi (per lo più tratti dalla rete), corrispondenti agli attuali chatbot.

 

M

Markov Decision Process: modello matematico utilizzato per descrivere sistemi in cui un agente deve prendere decisioni in base alla sua attuale situazione, indicata da uno stato. 

Metriche: parametri atti a misurare l’accuratezza di un modello e le sue prestazioni.

Morfologia: in IA, è lo strumento usato per analizzare il significato delle parole e per costruire sistemi di elaborazione del linguaggio naturale.

Multi-agent System: sistema composto da più agenti intelligenti che interagiscono tra loro per raggiungere un obiettivo comune; può coinvolgere software, robot e persone.

 

N

Natural Language Processing (NLP): branca di studi a cavallo tra l’informatica, l’intelligenza artificiale e la linguistica che studia le interazioni fra computer e linguaggio umano; analizza le informazioni semantiche racchiuse nei dati attraverso una metodologia d’indagine articolata, che si avvale di numerose tecniche.

 

O

Object Detection: ramo dell’IA che si concentra sulla capacità di un sistema di riconoscere oggetti specifici all’interno di un’immagine o video, utilizzata prevalentemente nei campi della sorveglianza video e della diagnostica medica.

Overfitting: problema comune in fase di addestramento, per il quale il modello si adatta troppo ai dati somministrati, fornendo risultati insoddisfacenti quando opera su dati non visti in precedenza.

 

P

Pattern Recognition: branca dell’intelligenza artificiale che si occupa dell’analisi e dell’identificazione di schemi presenti nei dati, attraverso algoritmi di machine learning.

Personalization: processo di personalizzazione delle esperienze per singoli utenti sulla base di dati e preferenze.

Peso: parametro che identifica l’unità minima dei dati di addestramento di un modulo IA.

Prompt: testo in linguaggio naturale sul quale viene compiuto l’addestramento di un software.

Psychometrics: utilizzo dell’intelligenza artificiale e dell’analisi dei dati per valutare le capacità cognitive e personali di un individuo; le sue applicazioni riguardano l’ambito della psicologia e del reclutamento del personale.


Q

Quantum Computing: tecnologia basata sulla meccanica quantistica per l’elaborazione delle informazioni, impiegata nella progettazione degli algoritmi più avanzati e veloci.

Querying: attività che consiste nell’interrogare un sistema di IA al fine di ottenere informazioni specifiche.

 

R

Regression Analysis: tecnica dell’IA usata per prevedere risultati basati su dati storici.

Rete neurale artificiale: insieme di algoritmi ispirati alla struttura e alla funzione del cervello umano.

Rule-based System: sistema di intelligenza artificiale che ricorre ad un insieme di regole predefinite per prendere decisioni e risolvere problemi.

S

Sentiment Analysis: tecnica che consente di analizzare un contenuto testuale per identificare l’atteggiamento e l’opinione del soggetto parlante. 

Speech Recognition: tecnologia che permette di comprendere e tradurre il linguaggio parlato.

Speech Synthesis: tecnologia che consente ad un computer di generare una voce artificiale simile a quella prodotta da un essere umano. 

Speech-to-Text: funzione abilitata alla conversione del parlato in testo digitale, rendendo possibile la trascrizione automatica delle conversazioni. 

Structured Data: dati organizzati in un formato standardizzato, come tabelle o schemi di database.

 

T

Text Classification: tecnica di elaborazione del linguaggio naturale che consiste nell’associare ad un testo un’etichetta predefinita.

Token: elemento significativo di un testo preso in esame dall’analisi NLP.

Tokenizzazione: tecnica di pre-elaborazione impiegata per spezzare il testo continuo in frasi o unità semantiche più piccole, denominate token.

 

V

Visual Recognition: area dell’intelligenza artificiale che si concentra sulla capacità di un sistema di riconoscere, interpretare e comprendere l’immagine e i dati visivi.

Voice Recognition: uso dell’IA per riconoscere e trascrivere la voce umana, tipico di software deputati alla sicurezza e alla trascrizione di testi. 

Video Analytics: applicazione dell’IA volta all’analisi e alla comprensione di dati video (es. rilevazione del movimento).


Le 64 voci alla base di questo questo dizionario tracciano i confini generali di un campo di ricerca sterminato, dal cui sviluppo sembra dipendere un filone importantissimo dell’innovazione tecnologica di questo secolo. 

 

Alberto Vigolungo

ph. E.D.