Quando ci si trova a che fare con un elevano numero di caratteristiche, il modello di machine learning che si sta addestrando può risentirne nelle performance. Vuoi perché alcune di esse sono tra loro positivamente correlate, o perché altre aggiungono poche informazioni aggiuntive al dataset: di fatto si ottengono risultati più scarsi di quelli che […]
2 semplici esempi di pipeline nel machine learning
Nella maggior parte dei progetti di machine learning è improbabile che i dati con cui devi lavorare siano nel formato ideale per produrre il modello con le migliori prestazioni. Spesso infatti ci sono una serie di passaggi come la codifica di variabili categoriche, il ridimensionamento delle funzionalità e la normalizzazione che devono essere eseguiti. Scikit-learn […]
5 tecniche di Cross Validation
Per definire il grado di accuratezza o l’efficacia di un qualsiasi modello di machine learning è necessario eseguire una o più valutazioni sugli errori che si ottengono nelle previsioni. In genere, dopo l’allenamento viene effettuata una stima dell’errore per il modello, meglio nota come valutazione dei residui. In questo processo, viene eseguita una stima numerica […]
XGBoost in python per problemi di regressione
L’algoritmo XGBoost è diventato uno strumento molto potente e molto popolare nell’apprendimento automatico. Questa libreria contiene a sua volta una varietà di funzioni e metodi, che di solito vengono forniti con il proprio set di iperparametri. Essi vengono combinati insieme in un unico pacchetto. Possiamo modellare varie attività di classificazione, o regressione utilizzando alberi e […]
Cos’è l’algoritmo XGBoost?
XGBoost è un algoritmo che ha recentemente prevalso nell’apprendimento automatico e nelle competizioni Kaggle per dati strutturati o tabulari. Ha permesso di ottenere a chi lo ha utilizzato ottimi risultati e prestazioni. In questo post vedremo l’algoritmo XGBoost e un’introduzione su ciò che è, da dove proviene e un esempio di come funziona l’algoritmo per […]
Gradient Boosting per problemi di classificazione
La famiglia degli algoritmi Gradient Boosting rientra in una serie di potenti algoritmi che possono essere utilizzati sia per le attività di classificazione che di regressione. Chiamati anche Gradient Boosting Machine (GBM), sono stati utilizzati in applicazioni come la classificazione del testo, in sperimentazioni per classificare azioni fisiche tramite Elettromiografia (o EMG, una tecnica di […]