FIquei com duvida em relação ao pagamento, posso rodar 1000 pipelines gratuitamente ? Tipo posso usar todos os componentes do ADF e um banco de 5gb pelo menos e não serei cobrado por isso? Se puder explicar melhor eu agradeço. Aguardo retorno e obrigado pelo video, conteudo excelente...parabéns.
Fala cara, beleza? Ótimo video, obrigado!! Eu também consigo fazer uma rotina de deletar os dados já presentes na tabela, ou de copiar apenas os dados que não sejam duplicados, antes de importa-los através da pipeline?
Suei para achar conteúdo do Data Factory na Internet. Maioria tudo em língua inglesa . Ele é realmente mt bom
Obrigada
Excelente explicação. Tava cansado de ficar ouvindo indianos kkkk
estou ainda aprendendo bi pelo senac .Mais gostei do seu conteúdo, muito obrigada
Quero mais vídeos desse irmão, muito bom, parabéns
Parabéns pelo conteúdo !
Continue postando mais vídeos assim.
Simples, objetivo e direto.
Ótimo conteúdo.
Top demais!!! Mandando a engenharia de dados no Brasil!
Meu camarada, que explicação Boa. Ganhou um seguidor.
Obrigado pelo conteúdo!
=)
Ótimo material! Simples, direto ao ponto e bem completo! Obrigado1
Parabéns pelo Vídeo. Sensacional a explicação!
Da Hora!
Ótimo vídeo, muito obrigado pela explicação ajudou bastante ansioso por próximos vídeos!
Parabéns pelo video!
Obrigada por dividir seu conhecimento! seu video me ajudou muitoooooo
Muito bom, mas poderia explicar melhor sobre o custo da ferramenta
@BigDataMaster teria como apos exportar os dados, deletar os dados da origem?!
Conteúdo muito proveitoso parabéns por compartilhar !
muito bom, parabens.
Muito bom video! Obrigado
Não precisa mesmo pagar? Maioria das ferramentas etl tem um custo
Top demais parabéns! Ótima explicação receba receba o like e mais um escrito!
FIquei com duvida em relação ao pagamento, posso rodar 1000 pipelines gratuitamente ? Tipo posso usar todos os componentes do ADF e um banco de 5gb pelo menos e não serei cobrado por isso? Se puder explicar melhor eu agradeço.
Aguardo retorno e obrigado pelo video, conteudo excelente...parabéns.
Ótimo conteúdo, parabéns!
Se é loco aprendi demais
Fala cara, beleza? Ótimo video, obrigado!!
Eu também consigo fazer uma rotina de deletar os dados já presentes na tabela, ou de copiar apenas os dados que não sejam duplicados, antes de importa-los através da pipeline?
Alguém sabe se eu consigo mudar o ID de uma pipeline?
Top!!!
Obrigado pelo vídeo! Isso tuido é gratuito mesmo? A azure não vai cobrar pelo integration runtime?
para estudo é gratuito mesmo.
Toppp
Qual link pra baixar?