La famiglia degli algoritmi Gradient Boosting rientra in una serie di potenti algoritmi che possono essere utilizzati sia per le attività di classificazione che di regressione. Chiamati anche Gradient Boosting Machine (GBM), sono stati utilizzati in applicazioni come la classificazione del testo, in sperimentazioni per classificare azioni fisiche tramite Elettromiografia (o EMG, una tecnica di […]
Algoritmo Gradient Boosting per problemi di regressione
Il primo algoritmo boosting creato e che ebbe un grande successo è stato l’AdaBoost, quello che abbiamo visto nei precedenti articoli. In questa sede ci concentriamo su un altro algoritmo che rientra nella famiglia Boosting, definito Gradient Boosting, una tecnica che attira l’attenzione per la sua velocità e accuratezza di previsione, specialmente con dati grandi […]
Adaptive Boosting (AdaBoost) in Python
Nel precedente articolo abbiamo visto cos’è e come funziona l’algoritmo Adaptive Boosting (o brevemente AdaBoost), una tecnica di ensemble learning che permette di avvalersi di classificatori deboli sequenziali per problemi di classificazione binaria. Questi ultimi vengono utilizzati per formare un classificatore forte. Infatti, un algoritmo preso singolarmente può classificare male gli oggetti. Ma se combiniamo […]
Cos’è l’algoritmo Adaptive Boosting (AdaBoost)?
La maggior parte dei problemi di machine learning si focalizzano sull’eseguire una predizione con un singolo modello. In altri casi è possibile avvalersi dei risultati di più predizioni di modelli diversi per ottenere il risultato finale. Questo è ciò che fanno gli algoritmi Boosting. In particolare in questa sede ci concentriamo su un tipo di […]
Introduzione alla Linear Discriminant Analysis (LDA)
Ci si trova spesso, nei problemi di classificazione dell’apprendimento automatico, a dover confrontare e analizzare troppe caratteristiche sulla base delle quali viene effettuata la classificazione finale. Maggiore è il numero di esse, più diventa difficile visualizzare il set di allenamento e quindi lavorarci su. Proprio in questi contesti, entra in gioco la riduzione della dimensionalità. Detta anche riduzione […]
Regressione Polinomiale con un esempio in Python
Quando una variabile dipendente ha una relazione lineare con una variabile indipendente, significa che è possibile rappresentare tramite una retta tale relazione. Ciò avviene quando il grado di entrambe le variabili è pari a uno. Finora, infatti, abbiamo visto modelli di regressione lineare cui le potenze della variabile indipendente sono pari a 1. Cosa succede […]