Aggrega il riepilogo delle statistiche accumulate per il batch.
Le statistiche di riepilogo contengono gradienti e hessiani accumulati per ogni nodo, ID dimensione elemento e bucket.
Metodi pubblici
Uscita <Float> | asOutput () Restituisce la maniglia simbolica di un tensore. |
static BoostedTreesAggregateStats | |
Uscita <Float> | statsSummary () output Tensore di rango 4 (shape = [splits, feature_dimension, bucket, logits_dimension + hessian_dimension]) contenente le statistiche accumulate per ogni nodo, dimensione della feature e bucket. |
Metodi ereditati
Metodi pubblici
output pubblico <Float> asOutput ()
Restituisce la maniglia simbolica di un tensore.
Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.
public static BoostedTreesAggregateStats create ( Scope scope, Operando <Integer> nodeIds, Operand <Float> gradients, Operand <Float> hessians, Operand <Integer> feature, Long maxSplits, Long numBuckets)
Metodo Factory per creare una classe che esegue il wrapping di una nuova operazione BoostedTreesAggregateStats.
Parametri
scopo | ambito attuale |
---|---|
nodeIds | int32; Tensore di rango 1 contenente gli ID dei nodi per ogni esempio, forma [batch_size]. |
gradienti | float32; Tensore di rango 2 (shape = [batch_size, logits_dimension]) con gradienti per ogni esempio. |
iuta | float32; Tensore di grado 2 (forma = [batch_size, hessian_dimension]) con hessian per ogni esempio. |
caratteristica | int32; Tensori delle caratteristiche di rango 2 (shape = [batch_size, feature_dimension]). |
maxSplits | int; il numero massimo di divisioni possibili nell'intero albero. |
numBuckets | int; è uguale al valore massimo possibile della funzione bucketizzata. |
ritorna
- una nuova istanza di BoostedTreesAggregateStats
public Output <Float> statsSummary ()
output Tensore di rango 4 (shape = [splits, feature_dimension, bucket, logits_dimension + hessian_dimension]) contenente le statistiche accumulate per ogni nodo, dimensione della feature e bucket.