brndnaxr / ws-mds-na-pratica

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Seja Bem-Vindo(a) ao Repositório de Preparação do Workshop Construindo uma Stack de Dados Moderna com Airbyte, Airflow, DBT & Snowflake na Prática!

Saiba como criar o seu ambiente local para acompanhar o workshop!

Status

Nós preparamos uma sequência rápida para você criar o seu ambiente local para acompanhar o workshop!

Veja como criar as contas e configurar o Airflow localmente, na sua máquina, independente do sistema operacional em uso, e quais serão os passos de todas as tecnologias que vamos utilizar.

Para que você se familiarize, cada vez mais, com a linguagem franca mundial, boa parte do material que usamos é preparado em inglês, podendo ser usado, inclusive, como apoio ao estudar para entrevistas internacionais, caso você planeje fazer carreira em empresas do exterior.

Nosso principal objetivo é que você se divirta enquanto desenvolve e aprimora novas habilidades e novos conhecimentos tratando um case focado em práticas de desenvolvimento de Pipelines Modernas, através do uso de tecnologias como Airbyte, Snowflake, DBT & Airflow.

Project logo

Getting Started

Confira abaixo, os passos para criar o seu ambiente local para acompanhar o workshop:

Passo 1

Vamos usar MongoDB como nossa fonte de dados e utilizar o MongoDB Atlas.

Veja como criar a conta no MongoDB Atlas:

Link do MongoDB: [Shared - ForeverFree]

Passo 2

Agora, vamos criar nossa conta no Airbyte Cloud:

Link do Airbyte: [Trial]

Passo 3

Depois de criada a parte de ingestão, vamos para o armazenamento no Snowflake:

Como criar a conta no Snowflake:

Link do Snowflake: [Trial - Standard]

Passo 4

DBT Cloud: veja abaixo como criamos o DBT Cloud, uma das tecnologias mais interessantes:

Como criar uma conta no DBT Cloud:

Link do DBT Cloud: [One Developer - ForeverFree]

Passo 5

Orquestração de pipelines com Apache Airflow usando Astro CLI:

Configuração de ambiente de desenvolvimento Astro CLI:

Link de instalação do Astro CLI

About