Best
 
New
 
Fantom Tag

Corso - Le basi del Machine Learning

Trasformare enormi dati di volumi in informazioni utili

  • A distanza
  • Fondamenti
  • Full immersion
Corso a catalogo
Durata
3 giorni (21 Ore)

Quota d'iscrizione
1.990,00 €  +IVA

WebCode
IT.29
Scarica il tagliando di iscrizione
Realizza questo corso in azienda
WebCode
IT.29

Durata
3 giorni (21 Ore)

Preço
5.380,00€ +IVA
<a href="#intraPackage" data-modal-open>Scopri di più sulla formazione a catalogo in azienda</a>
Formazione customizzata
Sei interessato all'argomento?
Progettiamo un training personalizzato nella tua azienda.

La padronanza del Data Mining e del Machine Learning è diventata un'abilità necessaria, addirittura essenziale per chiunque desideri sviluppare competenze sui Big Data poiché consente loro di esplorare o cercare volumi di dati molto grandi per costruire modelli e rispondere a un'ampia varietà di problemi di business quando i metodi statistici tradizionali diventano inefficaci. Per questo, gli esperti di Big Data devono padroneggiare lo sviluppo e lo studio di algoritmi che consentano alle macchine di apprendere automaticamente dai dati ed eseguire attività in modo autonomo per modellare le tendenze.

Leggi di più
Per chi

A chi è rivolto

Per chi

  • Ingegneri, analisti, responsabili marketing
  • Data Analyst, Data Scientist, Data Steward
  • Chiunque sia interessato alle tecniche di Data Mining e Machine Learning

Prerequisiti

Conoscere l'utilità del Data Mining e le problematiche dei Big Data nel targeting economico

Programma

Programma del corso

1 - Apprendimento automatico - Introduzione

  • Introduzione
  • Aree di competenza
  • Concentrarsi sulla scienza dei dati (data mining)
  • Concentrarsi sull'apprendimento automatico
  • Concentrarsi sui Big Data
  • Concentrarsi sull'apprendimento profondo
  • Definizione di apprendimento automatico
  • Esempi di attività di apprendimento automatico
  • Cosa possono imparare le macchine
  • Le diverse modalità di allenamento

 

2 - I fondamenti dell'apprendimento automatico

  • Preambolo: - Un problema di ottimizzazione - Ricerca della capacità ottimale del modello - Capacità di relazione ed errori - Un contributo filosofico - Quadro statistico - Anatomia di un modello di machine learning
  • Set di dati di addestramento: - Quadro statistico - Variabili predittive - Catena di elaborazione delle variabili predittive - Variabili da prevedere
  • Funzioni di ipotesi: - Principio: insiemi di funzioni di ipotesi - Contesto di selezione delle funzioni di ipotesi - Caratteristiche delle funzioni di ipotesi - Modelli probabilistici frequentisti e bayesiani
  • Funzioni di costo: - Stimatori - Principio di massima verosimiglianza (MLE*) - MAP - Massimo A Posteriori - Il bias di uno stimatore - La varianza di uno stimatore - Il compromesso bias-varianza - Funzioni di costo - La regolarizzazione dei parametri
  • Algoritmi di ottimizzazione: - Le principali classi di algoritmi di ottimizzazione - Discesa del gradiente (1° ordine) - Discesa del gradiente (dettagli) - Approcci di Newton (2° ordine) - Ottimizzazione batch e stocastica - Per approfondire

Laboratorio: Implementazione dell'ambiente di lavoro di Machine Learning

 

3 - Classificazione

  • Introduzione: - Scelta di un algoritmo di classificazione
  • Regressione logistica: - Da Perceptron alla regressione logistica - Presupposti del modello - Apprendimento dei pesi del modello - Esempio di implementazione: scikit-learn - Regressione logistica - Scheda riassuntiva
  • SVM: - Classificazione con margine massimo - La nozione di margine morbido - Macchine del kernel - Trucco del kernel - Funzioni del kernel - SVM - Matematica - SVM - Foglio riassuntivo
  • Alberi decisionali: - Principio di base - Funzionamento - Massimizzazione del guadagno informativo - Misurazione dell'impurità di un nodo - Esempio di implementazione: scikit-learn - Alberi decisionali - Foglio riassuntivo
  • K vicini più vicini (kNN): - Apprendimento basato su esempi - Principio di funzionamento - Vantaggi e svantaggi - kNN - Scheda riassuntiva
  • Sintesi

Laboratorio: Sperimentazione di algoritmi di classificazione su casi concreti

 

4 - Pratiche

  • Preelaborazione: - Gestione dei dati mancanti - Trasformatori e stimatori - Elaborazione dei dati categorici - Partizionamento dei set di dati - Ridimensionamento dei dati
  • Ingegneria delle variabili predittive (Feature Engineering): - Selezione delle variabili predittive - Selezione indotta dalla regolarizzazione L1 - Selezione sequenziale delle variabili - Determinazione dell'importanza delle variabili - Riduzione dimensionale mediante compressione dei dati - Estrazione delle variabili predittive - Component analysis (PCA) - Lineare Analisi discriminante (LDA) - Kernel PCA (KPCA)
  • Impostazioni degli iperparametri e valutazione del modello: - Buone pratiche - La nozione di Pipeline - Convalida incrociata (convalida incrociata) - Curve di apprendimento - Curve di convalida - Ricerca in griglia (ricerca in griglia) - Convalida incrociata nidificata (ricerca in grigliacv) - Metriche delle prestazioni
  • Sintesi

Laboratorio: Sperimentazione di pratiche di machine learning su casi concreti

 

5 - Apprendimento d'insieme

  • Introduzione
  • L'approccio al voto
  • Una variante: impilabile
  • Insaccamento
  • Foreste casuali
  • Potenziamento
  • La variante Adaboost
  • Aumento del gradiente
  • Schede riassuntive

Laboratorio: Apprendimento complessivo su un caso concreto

 

6 - Regressione

  • Regressione lineare semplice
  • Regressione lineare multivariata
  • Relazioni tra variabili
  • Valori anomali (RANSAC)
  • Valutazione delle prestazioni del modello di regressione
  • Regolarizzazione dei modelli di regressione lineare
  • Regressione polinomiale
  • Regressione con foreste casuali
  • Sintesi

Laboratorio: Regressione su un caso concreto

 

7 - Raggruppamento

  • Introduzione
  • Raggruppamento di oggetti per somiglianza con k-means
  • k-significa: algoritmo
  • L'inerzia di un cluster
  • Variante k-significa++
  • Raggruppamento sfocato
  • Trovare il numero ottimale di cluster con il metodo Elbow
  • Comprendere la qualità dei cluster con il metodo della silhouette
  • Raggruppamento gerarchico
  • Clustering mediante misurazione della densità DBSCAN
  • Altri approcci di clustering
  • Sintesi

Laboratorio: Clustering su un caso concreto

Obiettivi

Obiettivi del corso

  • Comprendere le differenze tra apprendimento automatico supervisionato, non supervisionato e meta-apprendimento
  • Saper trasformare un grande volume di dati eterogenei in informazioni utili
  • Padroneggia l'uso di algoritmi di autoapprendimento adattati a una soluzione di analisi
  • Comprendere come sfruttare grandi volumi di dati testuali
  • Essere in grado di applicare queste diverse tecniche ai progetti Big Data
Esercitazioni

Esercitazioni

  • Una formazione molto pratica: il 70% del tempo della formazione è dedicato alla sua messa in pratica per una migliore assimilazione delle nozioni di base
  • Il lavoro pratico viene svolto principalmente con R e Python
  • Consulenti esperti condividono il loro know-how con i partecipanti
Finanziamenti

Opportunità di finanziamento

I Fondi Paritetici Interprofessionali permettono, alle aziende aderenti, di finanziare la formazione aziendale ed individuale rivolta ai propri dipendenti.

Affidati a Cegos e al suo Team dedicato per essere supportato lungo tutte le fasi del progetto finanziato, dalla valutazione di fattibilità, alla presentazione della domanda al Fondo Interprofessionale, fino alla rendicontazione dei costi e al rimborso delle spese.

Scopri come accedere ai finanziamenti per questo intervento.

Date

  • 1.990,00 € +IVA
    Posti disponibili
    Iscriviti
    I partecipanti riceveranno le istruzioni per partecipare alcuni giorni prima dell’inizio del corso. Consulta gli  orari
  • 1.990,00 € +IVA
    Posti disponibili
    Iscriviti
    I partecipanti riceveranno le istruzioni per partecipare alcuni giorni prima dell’inizio del corso. Consulta gli  orari
  • 1.990,00 € +IVA
    Posti disponibili
    Iscriviti
    Dettaglio date per questa sessione
    • Date 15 nov 2024
    • Dal 18 nov al 19 nov 2024
    I partecipanti riceveranno le istruzioni per partecipare alcuni giorni prima dell’inizio del corso. Consulta gli  orari