Google Cloud tente de rendre les données “illimitées”.

Google Cloud a publié un aperçu de BigLake, son moteur de stockage pour lacs de données, dans le cadre de son objectif visant à éliminer toutes les “restrictions de données” et à dissoudre la barrière entre les lacs de données et les entrepôts. Lors d’un prébriefing, Google a expliqué que les utilisateurs n’ont pas besoin […]
SIA Team
April 6, 2022

Google Cloud a publié un aperçu de BigLake, son moteur de stockage pour lacs de données, dans le cadre de son objectif visant à éliminer toutes les “restrictions de données” et à dissoudre la barrière entre les lacs de données et les entrepôts.

Lors d’un prébriefing, Google a expliqué que les utilisateurs n’ont pas besoin de copier les données, de les déplacer à travers vos magasins d’objets, comme dans Google Cloud Storage, S3, ou Azure dans un environnement multi-cloud, et vous obtenez un seul endroit pour accéder à toutes vos données.

En outre, il peut prendre en charge tous les formats de fichiers ouverts tels que Parquet, ainsi que les moteurs de traitement open-source tels que Apache Spark ou Beam, et une variété de formats de tableaux tels que Delta et Iceberg.

Par ailleurs, Google a annoncé la formation de la Data Cloud Alliance, qui comprend Confluent, Databricks, Dataiku, Deloitte, Elastic, Fivetran, MongoDB, Neo4j, Redis et Starburst en tant que partenaires fondateurs.

Les membres de l’alliance fourniront une infrastructure, des API et un support d’intégration pour permettre la portabilité et l’accessibilité des données sur de nombreuses plateformes et produits dans une variété de scénarios. Afin d’améliorer la portabilité des données, ils collaboreront également à l’élaboration de nouveaux modèles de données, de processus et d’interfaces de plate-forme communs au secteur.

Vertex AI Workbench, qui a été conçu pour être directement intégré à une suite complète de produits d’IA et de données, notamment BigQuery, Serverless Spark et Dataproc, a été présenté dans le cadre du Data Cloud Summit du géant de la technologie pour rassembler les systèmes de données et de ML dans une interface unique afin que les équipes puissent disposer d’ensembles d’outils communs pour l’analyse des données, la science des données et l’apprentissage automatique.