Nei commenti hai menzionato che stai calcolando l'AUC usando una divisione 75-25 del test del treno e sei perplesso sul motivo per cui l'AUC viene massimizzata quando addestri il tuo modello solo su 8 dei tuoi 30 regressori. Da questo hai avuto l'impressione che l'AUC stia in qualche modo penalizzando la complessità nel tuo modello.
In realtà c'è qualcosa che penalizza la complessità nel tuo modello, ma non è la metrica AUC. È la suddivisione del test del treno. La divisione del test del treno è ciò che rende possibile utilizzare praticamente qualsiasi metrica, anche AUC, per la selezione del modello, anche se non hanno penalità intrinseca alla complessità del modello.
Come probabilmente saprai, non misuriamo le prestazioni sugli stessi dati su cui formiamo i nostri modelli, perché il tasso di errore dei dati di addestramento è generalmente una misura eccessivamente ottimistica delle prestazioni nella pratica (vedere la sezione 7.4 del libro ESL). Ma questo non è il motivo più importante per utilizzare le suddivisioni del test del treno. Il motivo più importante è evitare l'overfitting con modelli eccessivamente complessi.
Dati due modelli A e B tali che B "contiene A" (l'insieme di parametri di B contiene quello di A), l'errore di addestramento è matematicamente garantito a favore del modello B, se ti stai adattando ottimizzando alcuni criteri di adattamento e misurando l'errore in base allo stesso criterio. Questo perché B può adattare i dati in tutti i modi in cui A può, più altri modi che possono produrre un errore inferiore rispetto alla migliore corrispondenza di A. Questo è il motivo per cui ti aspettavi di vedere un errore inferiore quando hai aggiunto più predittori al tuo modello.
Tuttavia, suddividendo i tuoi dati in due set ragionevolmente indipendenti per l'addestramento e il test, ti difendi da questa trappola. Quando si adattano i dati di addestramento in modo aggressivo, con molti predittori e parametri, non migliora necessariamente l'adattamento dei dati di test. In effetti, indipendentemente dal modello o dal criterio di adattamento, possiamo generalmente aspettarci che un modello che ha superato i dati di addestramento non funzionerà bene su un set indipendente di dati di test che non ha mai visto. Man mano che la complessità del modello aumenta nel territorio di overfitting, le prestazioni del set di test generalmente peggiorano man mano che il modello raccoglie modelli di dati di addestramento sempre più spuri, portando le sue previsioni sempre più lontano dalle tendenze effettive nel sistema che sta cercando di prevedere. Vedi ad esempio la diapositiva 4 di questa presentazione e le sezioni 7.10 e 7.12 di ESL.
Se hai ancora bisogno di convincimento, un semplice esperimento mentale può aiutarti. Immagina di avere un set di dati di 100 punti con una semplice tendenza lineare più rumore gaussiano e di voler adattare un modello polinomiale a questi dati. Supponiamo ora di suddividere i dati in set di addestramento e di test di dimensione 50 ciascuno e di adattare un polinomio di grado 50 ai dati di addestramento. Questo polinomio interpolerà i dati e darà zero errori di training set, ma mostrerà un comportamento oscillatorio selvaggio portandolo molto, molto lontano dalla semplice linea di tendenza lineare. Ciò causerà errori estremamente grandi sul set di test, molto più grandi di quelli che si otterrebbero utilizzando un semplice modello lineare. Quindi il modello lineare sarà favorito dall'errore CV. Ciò accadrà anche se confronti il modello lineare con un modello più stabile come le spline smussate, sebbene l'effetto sarà meno drammatico.
In conclusione, utilizzando tecniche di suddivisione del test di addestramento come CV e misurando le prestazioni sui dati del test, otteniamo una penalizzazione implicita della complessità del modello, indipendentemente dalla metrica che utilizziamo, solo perché il modello deve prevedere sui dati non ha visto. Questo è il motivo per cui la suddivisione del test del treno è universalmente utilizzata nell'approccio moderno alla valutazione delle prestazioni in regressione e classificazione.