Carregar uso de dados Transmissão em mosaico
Este artigo descreve como usar a transmissão do Mosaic para converter dados do site Apache Spark em um formato compatível com o site PyTorch.
A transmissão do Mosaic é uma biblioteca de carregamento de dados de código aberto. Ele permite o treinamento distribuído ou de nó único e a avaliação de modelos de aprendizagem profunda a partir de conjuntos de dados que já estão carregados como Apache Spark DataFrames. A transmissão do Mosaic é compatível principalmente com o Mosaic Composer, mas também se integra com os sites nativos PyTorch, PyTorch Lightning e TorchDistributor. A transmissão Mosaic oferece uma série de benefícios em relação aos tradicionais PyTorch DataLoaders, incluindo:
Compatibilidade com qualquer tipo de dados, incluindo imagens, texto, vídeo e dados multimodais.
Suporte para os principais provedores de armazenamento cloud (AWS, OCI, GCS, Azure, Databricks UC Volume e qualquer armazenamento de objetos compatível com S3, como Cloudflare R2, Coreweave, Backblaze b2, etc.)
Maximizar as garantias de correção, o desempenho, a flexibilidade e a facilidade de uso. Para obter mais informações, view a página de recursokey .
Para obter informações gerais sobre a transmissão do Mosaic, acesse view a documentação da transmissão API .
Observação
A transmissão do Mosaic foi pré-instalada em todas as versões do Databricks Runtime 15.2 ML e superiores.
Carregar dados do site Spark DataFrames usando a transmissão Mosaic
A transmissão do Mosaic oferece um fluxo de trabalho simples para a conversão do site Apache Spark para o formato Mosaic Data Shard (MDS), que pode então ser carregado para uso em um ambiente distribuído.
O fluxo de trabalho recomendado é:
Use o Apache Spark para carregar e, opcionalmente, pré-processar dados.
Use
streaming.base.converters.dataframe_to_mds
para salvar o dataframe no disco para armazenamento temporário e/ou em um volume do Unity Catalog para armazenamento persistente. Esses dados serão armazenados no formato MDS e podem ser otimizados ainda mais com suporte para compactação e hashing. Os casos de uso avançado também podem incluir o pré-processamento de UDFs de uso de dados. view O senhor pode obter mais informações nos sites Spark DataFrame e MDS tutorial.Use
streaming.StreamingDataset
para carregar os dados necessários na memória.StreamingDataset
é uma versão do IterableDataset do PyTorchque recorre ao embaralhamento elasticamente determinístico, o que permite a retomada rápida no meio da época. view a documentação do StreamingDataset para obter mais informações.Use
streaming.StreamingDataLoader
para carregar os dados necessários para treinamento/avaliação/teste.StreamingDataLoader
é uma versão do DataLoader do PyTorch que fornece uma interface adicional de ponto de verificação/resumo, para a qual ele rastreia o número de amostras vistas pelo modelo nessa classificação.
Para obter um exemplo de ponta a ponta, consulte o seguinte Notebook: