Professional Documents
Culture Documents
Capitolo 1-2 Serafini
Capitolo 1-2 Serafini
INDICE
INTRODUZIONE
CONCLUSIONI
BIBLIOGRAFIA
SITOGRAFIA
CAPITOLO I. L’AI DALLA SUA NASCITA AD OGGI
Racchiude una serie di tecniche che da possibilità alle macchine di imparare dai dati stessi
e prendere successivamente una decisione o fare una predizione su di essi, tra le tecniche
in questione troviamo: statistica computazionale, reti neurali artificiali, elaborazione di
immagini, data mining, algoritmi adattivi etc. (Figura 5)
Un sistema di Machine Learning possiamo applicarlo a una conoscenza che proviene da
diverse sorgenti per la risoluzione di diversi compiti: riconoscimento vocale, facciale,
oggetti etc.. Al contrario degli algoritmi che seguono un pattern di istruzioni per risolver un
determinato problema (algoritmi euristici), il Machine Learning permette ad un computer,
da solo, all’apprendimento e il riconoscimento di ‘configurazioni percettive’ e a poter fare
predizioni su di esse.
Figura 5 FOTO- Schema di funzionamento del Machine Learning
Il Machine Learning si può utilizzare ed adattare per tre diverse mansioni: Classificazione,
Clustering e Predizione.
Ciò che realmente compone il Machine Learning è proprio il suo modello di
apprendimento, e si può fare una classificazione degli algoritmi proprio sulla base di questi
modelli:
- con supervisione didattica (Figura 6): tipo di apprendimento attraverso esempi di
input/output che permettono all’I.A. di comprendere come doversi comportare (le ‘etichette’
sono create dall’addestratore per rendere la macchina capace di scoprire relazioni tra
input ed etichette)
Figura 6 - Machine Learning con supervisione
senza supervisione didattica (Figura 7): tipo di apprendimento attraverso l’analisi dei
risultati, ovvero il software capisce come agire, e il modello di apprendimento si va ad
adattare sulla base degli output che permettono di mappare i risultati di specifici compiti
che successivamente i software sono chiamati a svolgere (le etichette non sono
disponibili; in questa situazione si richiede alla macchina di trovare dei gruppi o cluster
all’interno dei dati); Figura 7 - Machine Learning senza supervisione
reinforcement learning, ovvero l’I.A. viene premiata al raggiungimento di soluzioni e/o
risultati, in modo da riconoscere la differenza tra le azioni corrette e sbagliate
Il ‘Deep Learning’ detto anche ‘Apprendimento Profondo’,
è composto da modelli di apprendimento che provengono dalla struttura e funzionamento
del cervello umano. Se con Machine Learning parliamo di metodi di ‘allenamento’ per
l’I.A., il Deep Learning è direttamente l’emulazione della mente umana.
Il Deep Learning forma una sotto-area del Machine Learning, il quale utilizza le reti neurali
dotate di diversi strati e di nuovi algoritmi per l’elaborazione dati per la regolarizzazione del
modello, dette anche Reti Neurali Profonde. Il Deep Learning prende molto dalle
Neuroscienze (le reti neurali sono una struttura dell’attività neuronale del cervello umano);
però al conrario del cervello biologico dove ogni neurone può collegarsi a qualsiaisi altro
neurone sotto vincoli fisici, le ‘Reti Neurali Artificiali’ hanno un numero limitato di strati e
direzioni prestabilite per propagare l’informazione. Per molti anni le Reti Neurali Artificiali
sono state messe da parte sia dalla ricerca che dall’industria per colpa dei loro costi
computazionali;
però tra il 2006 e il 2012, Geoffrey Hinton e il suo gruppo di ricerca dell’università di
Toronto, è riuscito a parallelizzare gli algoritmi per le Reti Neurali Artificiali su architetture
parallele. Il risultato è stato notevole poiché ha visto un incremento della quantità di strati,
neuroni e parametri del modello permettendo alle macchine stesse di computare una
quantità di dati elevata addestrandosi su essi.
Il requisito principale per addestrare un modello di Deep Learning è la possibilità di avere
disposizione di grossi training set, il che rende il Deep Learning ideale per fronteggiare
l’era dei ‘Big Data’.
Con l’avvento dei Big Data e delle GPU abbiamo quindi le ragioni legate alla popolarità del
Deep Learning;
Le ragioni sottostanti la popolarità del Deep Learning, infatti, sono legate all’avvento dei
Big Data e delle GPU;
la rete comincia ad ‘apprendere’ attraverso l’algoritmo di addestramento, facendo
riferimento alla quantità massiccia di dati, e quindi capire come raggiungere obbiettivi (per
esempio un classificatore che deve riconoscere un animale dovrebbe essere sottoposto
ad un massiccio quantitativo di dati di tale animale per comprenderne le caratteristiche ed
identificarlo e distinguerlo da altri simili)
Il Deep learning però è sensibile ai ‘bias’ ovvero se le etichette nel modello vengono
create in modo errato, il modello apprende dati errati (agli albori del progetto, il sistema di
riconoscimento facciale di Google etichettò alcune facce di essere umani di origine
africane come gorilla).