Registrar dados em uma execu��o do experimento

Para fins de gera��o de registros, use o SDK da Vertex AI para Python.

M�tricas e par�metros compat�veis:

  • M�tricas de resumo
  • m�tricas de s�ries temporais
  • parameters
  • m�tricas de classifica��o

SDK da Vertex AI para Python

Observa��o: quando o par�metro resume opcional � especificado como TRUE, a execu��o iniciada anteriormente � retomada. Quando n�o especificado, resume assume como padr�o FALSE e uma nova execu��o � criada.

O exemplo a seguir usa o m�todo init das fun��es da AIplatform.

M�tricas de resumo

As m�tricas de resumo s�o m�tricas escalares de valor �nico armazenadas adjacentes �s m�tricas de s�rie temporal e representam um resumo final de uma execu��o de um experimento.

Um exemplo de caso de uso � a interrup��o antecipada, em que uma configura��o de paci�ncia permite continuar o treinamento, mas o modelo candidato � restaurado de uma etapa anterior e as m�tricas calculadas para o modelo nessa etapa seriam representadas como uma m�trica de resumo. porque a m�trica de s�rie temporal mais recente n�o representa o modelo restaurado. A API log_metrics para m�tricas de resumo � usada para essa finalidade.

Python

def log_metrics_sample(
    experiment_name: str,
    run_name: str,
    metrics: Dict[str, float],
    project: str,
    location: str,
):
    aiplatform.init(experiment=experiment_name, project=project, location=location)

    aiplatform.start_run(run=run_name)

    aiplatform.log_metrics(metrics)

  • experiment_name: d� um nome para o experimento. Para ver sua lista de experimentos no Console do Google Cloud, selecione Experimentos no painel de navega��o.
  • run_name: especifica um nome de execu��o (consulte start_run).
  • metric: pares de chave-valor de m�tricas. Por exemplo: {'learning_rate': 0.1}
  • project: o ID do projeto. � poss�vel encontr�-los na p�gina de boas-vindas do Console do Google Cloud.
  • location: consulte a Lista de locais dispon�veis.

M�tricas de s�rie temporal

Para registrar m�tricas de s�rie temporal, o Vertex AI Experiments requer uma inst�ncia de apoio do TensorBoard da Vertex AI.

Atribua o recurso TensorBoard do Vertex AI de apoio para a gera��o de registros de m�tricas de s�rie temporal.

Todas as m�tricas registradas pelo log_time_series_metrics s�o armazenadas como m�tricas de s�rie temporal. O TensorBoard da Vertex AI � o armazenamento de m�tricas de s�rie temporal de apoio.

O experiment_tensorboard pode ser definido nos n�veis de experimento e execu��o. Definir experiment_tensorboard no n�vel da execu��o substitui a configura��o no n�vel do experimento. Depois que o experiment_tensorboard � definido em uma execu��o, n�o � poss�vel mudar o experiment_tensorboard dela.

  • Defina experiment_tensorboard no n�vel do experimento:
      aiplatform.init(experiment='my-experiment',
                   experiment_tensorboard='projects/.../tensorboard/my-tb-resource')
  • Defina experiment_tensorboard no n�vel da execu��o. Observa��o: substitui a configura��o no n�vel do experimento.
      aiplatform.start_run(run_name='my-other-run',
                        tensorboard='projects/.../.../other-resource')
    aiplatform.log_time_series_metrics(...)

Python

def log_time_series_metrics_sample(
    experiment_name: str,
    run_name: str,
    metrics: Dict[str, float],
    step: Optional[int],
    wall_time: Optional[timestamp_pb2.Timestamp],
    project: str,
    location: str,
):
    aiplatform.init(experiment=experiment_name, project=project, location=location)

    aiplatform.start_run(run=run_name, resume=True)

    aiplatform.log_time_series_metrics(metrics=metrics, step=step, wall_time=wall_time)

  • experiment_name: informe o nome do experimento. Para ver a lista de experimentos no Console do Google Cloud, selecione Experimentos na se��o de navega��o.
  • run_name: especifica um nome de execu��o (consulte start_run).
  • metrics: dicion�rio de onde as chaves s�o nomes de m�tricas e valores s�o valores de m�tricas.
  • step: opcional. �ndice da etapa deste ponto de dados na execu��o.
  • wall_time: opcional. Carimbo de data/hora de rel�gio de parede quando esse ponto de dados � gerado pelo usu�rio final. Caso nenhum valor seja fornecido, wall_time ser� gerado com base no valor de time.time().
  • project: o ID do projeto. � poss�vel encontr�-los na p�gina de boas-vindas do Console do Google Cloud.
  • location: consulte a Lista de locais dispon�veis.

Passo e tempo decorrido

A API log_time_series_metrics tem a op��o de aceitar step e walltime.

  • step: opcional. �ndice da etapa desse ponto de dados durante a execu��o. Se n�o for fornecido, ser� usado um incremento na etapa mais recente entre todas as m�tricas de s�ries temporais registradas. Se a etapa j� existir para qualquer uma das chaves de m�trica fornecidas, ela ser� substitu�da.
  • wall_time: opcional. Os segundos ap�s a �poca da m�trica registrada. Se isso n�o for fornecido, o padr�o ser� time.time do Python.

Exemplo:

aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00})
Registre-se em uma etapa espec�fica
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00}, step=8)
Incluir wall_time
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00}, step=10)

Par�metros

Os par�metros s�o valores de entrada com chave que configuram uma execu��o, regulam o comportamento dela e afetam os resultados. Exemplos incluem taxa de aprendizado, taxa de desist�ncia e n�mero de etapas de treinamento. Par�metros de registro usando o m�todo log_params.

Python

def log_params_sample(
    experiment_name: str,
    run_name: str,
    params: Dict[str, Union[float, int, str]],
    project: str,
    location: str,
):
    aiplatform.init(experiment=experiment_name, project=project, location=location)

    aiplatform.start_run(run=run_name, resume=True)

    aiplatform.log_params(params)

aiplatform.log_params({"learning_rate": 0.01, "n_estimators": 10})
  • experiment_name: d� um nome para o experimento. Para ver a lista de experimentos no Console do Google Cloud, selecione Experimentos na se��o de navega��o.
  • run_name: especifica um nome de execu��o (consulte start_run).
  • params: pares de chave-valor de par�metros. Por exemplo: {'accuracy': 0.9} (consulte log_params). P�gina de boas-vindas de dados.
  • location: consulte a Lista de locais dispon�veis.

M�tricas de classifica��o

Al�m de m�tricas de resumo e m�tricas de s�rie temporal, matrizes de confus�o e curvas ROC s�o usadas com frequ�ncia. Elas podem ser registradas nos experimentos da Vertex AI usando a API log_classification_metrics.

Python

def log_classification_metrics_sample(
    experiment_name: str,
    run_name: str,
    project: str,
    location: str,
    labels: Optional[List[str]] = None,
    matrix: Optional[List[List[int]]] = None,
    fpr: Optional[List[float]] = None,
    tpr: Optional[List[float]] = None,
    threshold: Optional[List[float]] = None,
    display_name: Optional[str] = None,
) -> None:
    aiplatform.init(experiment=experiment_name, project=project, location=location)

    aiplatform.start_run(run=run_name, resume=True)

    aiplatform.log_classification_metrics(
        labels=labels,
        matrix=matrix,
        fpr=fpr,
        tpr=tpr,
        threshold=threshold,
        display_name=display_name,
    )

  • experiment_name: d� um nome para o experimento. Para ver a lista de experimentos no Console do Google Cloud, selecione Experimentos na navega��o por se��o.
  • run_name: especifica um nome de execu��o (consulte start_run).
  • project: o ID do projeto. � poss�vel encontr�-los na p�gina de boas-vindas do Console do Google Cloud.
  • location: Consulte a Lista de locais dispon�veis.
  • labels: lista de nomes de r�tulos para a matriz de confus�o. Precisa ser definido se a op��o "matriz" for definido.
  • matrix: valores da matriz de confus�o. Precisa ser definido se a op��o "r�tulos" for definida.
  • fpr: lista de taxas de falsos positivos para a curva ROC. Precisa ser definido se "tpr" ou "limites" estiverem definidos.
  • tpr: lista de taxas de verdadeiros positivos para a curva ROC. Precisa ser definido se "fpr" ou "limites" estiverem definidos.
  • threshold: lista de limites para a curva ROC. Precisa ser definido se "fpr" ou "tpr" estiverem definidos.
  • display_name: o nome definido pelo usu�rio para o artefato da m�trica de classifica��o.

Ver a lista de execu��es do experimento no Console do Google Cloud

  1. No Console do Google Cloud, acesse a p�gina Experimentos.
    <a{: class="button button-primary" l10n-attrs-original-order="href,target,class,track-name,track-type" l10n-encrypted-href="V3Ae1hvcBOij4KvUNiRrMltigmNHgUGOXn/QVSGplOhBlpxunv8WHL3F/z3VuS9rwbZOYpOQCXa+v4aZ0dt03w==" target="console" track-name="consoleLink" track-type="tasks" }="">V� para Experimentos
    Uma lista de experimentos aparece. </a{:>
  2. Selecione o experimento que voc� quer verificar.
    Uma lista de execu��es ser� exibida.

P�gina da lista de experimentos da Vertex AI
Para mais detalhes, consulte Comparar e analisar execu��es.

A seguir

Tutorial do notebook

Postagem do blog