- 65
- 38 999
Gonzalo Cabrera Gutiérrez
เข้าร่วมเมื่อ 6 ส.ค. 2017
Cómo enfrentar los silos de informacion en los procesos de las tecnologías de información
### **Islas de Información y Procesos**
- **Definición:**
Los silos de información y procesos ocurren cuando los datos y operaciones quedan fragmentados en tecnologías que no se comunican entre sí. Esto genera **ineficiencia**, **retrasos** y **pérdida de oportunidades**.
- **Por qué ocurren:**
- **Procesos batch:** Ejecutan tareas en intervalos definidos, procesando datos acumulados y dejando desfases temporales.
- **Archivos:** Almacenan datos en formatos rígidos y dispersos, dificultando la sincronización y el acceso centralizado.
- **Bases relacionales:** Su diseño rígido y enfoque tabular dificulta la integración con sistemas dinámicos y modernos.
### **Conclusión**
El uso de **archivos, procesos batch y bases relacionales** enfrenta serias limitaciones en:
1. **Capacidad para manejar grandes volúmenes de datos.**
2. **Responder en tiempos extremadamente bajos (milisegundos o segundos).**
3. **Facilitar una transición progresiva hacia tecnologías modernas.**
En contraste, tecnologías modernas como **Apache NiFi**, **Neo4j** y **Apache Kafka** están diseñadas para:
- **Facilitar la coexistencia con sistemas heredados** durante el periodo de transición.
- **Procesos en tiempo real con latencia mínima.**
- **Escalabilidad para manejar grandes volúmenes de datos.**
- **Consultas y flujos optimizados para tiempos de respuesta extremadamente bajos.**
Adoptar estas tecnologías permite a las organizaciones **modernizarse progresivamente**, reducir riesgos y optimizar sus procesos de forma eficiente, escalable y competitiva.
- **Definición:**
Los silos de información y procesos ocurren cuando los datos y operaciones quedan fragmentados en tecnologías que no se comunican entre sí. Esto genera **ineficiencia**, **retrasos** y **pérdida de oportunidades**.
- **Por qué ocurren:**
- **Procesos batch:** Ejecutan tareas en intervalos definidos, procesando datos acumulados y dejando desfases temporales.
- **Archivos:** Almacenan datos en formatos rígidos y dispersos, dificultando la sincronización y el acceso centralizado.
- **Bases relacionales:** Su diseño rígido y enfoque tabular dificulta la integración con sistemas dinámicos y modernos.
### **Conclusión**
El uso de **archivos, procesos batch y bases relacionales** enfrenta serias limitaciones en:
1. **Capacidad para manejar grandes volúmenes de datos.**
2. **Responder en tiempos extremadamente bajos (milisegundos o segundos).**
3. **Facilitar una transición progresiva hacia tecnologías modernas.**
En contraste, tecnologías modernas como **Apache NiFi**, **Neo4j** y **Apache Kafka** están diseñadas para:
- **Facilitar la coexistencia con sistemas heredados** durante el periodo de transición.
- **Procesos en tiempo real con latencia mínima.**
- **Escalabilidad para manejar grandes volúmenes de datos.**
- **Consultas y flujos optimizados para tiempos de respuesta extremadamente bajos.**
Adoptar estas tecnologías permite a las organizaciones **modernizarse progresivamente**, reducir riesgos y optimizar sus procesos de forma eficiente, escalable y competitiva.
มุมมอง: 23
วีดีโอ
APEX - Data Source API REST (webservice) Reporte Interactivo de un Data Source API REST (webservice)
มุมมอง 342 หลายเดือนก่อน
Se muestra la creacion de un Reporte interactivo, cuya fuente de datos es un Webservice Rest #apex #webservice
APEX - (2 de 2) Introducción a Oracle Aplication Express
มุมมอง 362 หลายเดือนก่อน
Oracle Application Express (Oracle APEX) es una plataforma de desarrollo de aplicaciones basada en la web que permite a los desarrolladores crear aplicaciones empresariales interactivas y escalables rápidamente. Está diseñada para trabajar con bases de datos Oracle y proporciona una interfaz sencilla y flexible para desarrollar aplicaciones web sin necesidad de conocimientos avanzados en lengua...
APEX - (1 de 2) Introducción a Oracle Aplication Express
มุมมอง 602 หลายเดือนก่อน
Oracle Application Express (Oracle APEX) es una plataforma de desarrollo de aplicaciones basada en la web que permite a los desarrolladores crear aplicaciones empresariales interactivas y escalables rápidamente. Está diseñada para trabajar con bases de datos Oracle y proporciona una interfaz sencilla y flexible para desarrollar aplicaciones web sin necesidad de conocimientos avanzados en lengua...
Arequipa Historia y Cultura de la Ciudad Blanca
มุมมอง 1822 หลายเดือนก่อน
Arequipa, conocida como la 'Ciudad Blanca', es una de las ciudades más importantes del Perú, fundada en 1540. Rodeada de volcanes, su arquitectura colonial en sillar le otorga un carácter único. Históricamente, fue un bastión en las guerras de independencia y un centro de pensamiento liberal. Su rica cultura se refleja en festividades y una gastronomía reconocida mundialmente. Hoy, su centro hi...
El legado Rosa Gutiérrez de Chuquibamba
มุมมอง 1.1K2 หลายเดือนก่อน
En 1928, en Chuquibamba, nace una mujer rodeada de naturaleza y tradición. A pesar de las limitaciones de su época, enfrenta retos con valentía, convirtiéndose en una figura multifacética: lavandera, profesora, cocinera y agricultora. Su vida se dedica a la justicia y al bienestar de los demás, dejando un legado de amor y enseñanza en su comunidad. Su historia refleja la lucha por los derechos ...
Personal : Recuerdos de una tarde mágica
มุมมอง 702 หลายเดือนก่อน
En una nostálgica tarde del cuatro de diciembre, el narrador evoca momentos entrañables compartidos con amigos en Lima. Desde el atardecer radiante hasta las risas de Las Tapadas, cada recuerdo está impregnado de alegría y complicidad. Las figuras literarias como Vargas Llosa y García Márquez parecen acompañar sus travesuras, mientras la conexión emocional entre los presentes transforma la plaz...
Personal: Recuerdos de la Casa de la Urb. Valencia
มุมมอง 1022 หลายเดือนก่อน
En 1970, la casa de la urbanización Valencia de la Familia Cabrera Gutierréz se convirtió en el hogar de una familia bulliciosa y amorosa. Durante 52 años, sus paredes atesoraron risas, juegos y rituales familiares, desde el aroma de la comida casera hasta las reuniones festivas. Este relato nostálgico evoca la vida cotidiana, los momentos compartidos y la conexión con la naturaleza, destacando...
NotebookLM: procesar y analizar documentos específicos que el usuario carga, como PDFs, Google Docs
มุมมอง 1622 หลายเดือนก่อน
Las principales funcionalidades de NotebookLM incluyen: 1. Procesamiento de documentos : NotebookLM puede trabajar con múltiples tipos de archivos, incluidos PDF, Google Docs, y archivos de texto, extrayendo información para resúmenes y consultas específicas basadas únicamente en los documentos cargados()(). [WWWhat's new](wwwhatsnew.com/2024/06/06/notebooklm-de-google-ya-en-espana-que-es-y-par...
Replit : Introduccion - Desarrollo con Inteligencia Artificial en minutos
มุมมอง 1142 หลายเดือนก่อน
Replit es una plataforma en línea que permite a los usuarios escribir, ejecutar y compartir código de manera colaborativa desde un navegador web. Soporta una amplia gama de lenguajes de programación, como Python, JavaScript, HTML/CSS, Java, y muchos otros, lo que la hace ideal tanto para principiantes como para desarrolladores experimentados. Replit ofrece un entorno de desarrollo integrado (ID...
Transformación Digital : Relación entre Capa de datos(Apache Kafka, Neo4j) y Capa de Integración.
มุมมอง 614 หลายเดือนก่อน
Neo4j: Base de Datos Basada en Grafos Neo4j es una base de datos orientada a grafos que permite modelar relaciones de una manera natural y explícita. En lugar de almacenar datos en tablas con filas y columnas, Neo4j organiza los datos como nodos y relaciones. Esto es especialmente útil cuando se necesita comprender cómo diferentes datos se conectan entre sí, permitiendo consultas más eficientes...
Notion : Diseño de Arquitectura TI basado en código con Mermaid y Chatgpt
มุมมอง 1215 หลายเดือนก่อน
- Situación actual Proyecto de desarrollo de una aplicación, aun no se tiene la Arquitectura - Problematica No se conoce una herramienta de Diseño de Arquitectura de Aplicaciones Se requiere presentar un Diagrama de la Arquitectura de la Aplicación a desarrollar - Solución Usar la tecnologia de Mermaid como herramienta de diseño. Aprovechar la funcionalidad de Mermaid de Arquitectura como códig...
Apache Nifi: Conversion de un flujo a lenguaje java con ayuda de Chatgpt
มุมมอง 855 หลายเดือนก่อน
Situación Hipotética - Situación inicial Se tiene flujo en Apache Nifi Operativo en producción - Problemática Se necesita que el flujo Nifi sea migrado a tecnologia compatible con otras plataformas que trabajan con Java, esto debido a políticas internas de la empresa o debido a que la plataforma Apache Nifi (en un escenario hipotetico) ha dejado de ser codigo abierto. - Objetivo Convertir el Fl...
Apache Nifi: Apache Nifi: Microservicios versus Apache Nifi
มุมมอง 815 หลายเดือนก่อน
El objetivo del video es demostrar la posibilidad de usar Apache Nifi como una etapa intermedia entre una Aplicacion Monolítica y una Aplicación basada en Microservicios
Apache Nifi : Gestor de versiones de flujos REGISTRY
มุมมอง 1375 หลายเดือนก่อน
Se describe la utilidad, la configuración, y los casos de uso de la base de datos de versiones de flujos de Apache Nifi
Apache Nifi : Mysql en Docker, Sentencias SQL de Base de Datos
มุมมอง 3457 หลายเดือนก่อน
Apache Nifi : Mysql en Docker, Sentencias SQL de Base de Datos
Apache Nifi Apache Kafka Creación de un flujo Nifi como productor y otro como consumidor de un topic
มุมมอง 2938 หลายเดือนก่อน
Apache Nifi Apache Kafka Creación de un flujo Nifi como productor y otro como consumidor de un topic
Apache Nifi: Mejorar el rendimiento haciendo tunning en el consumo de CPU y memoria.
มุมมอง 1909 หลายเดือนก่อน
Apache Nifi: Mejorar el rendimiento haciendo tunning en el consumo de CPU y memoria.
Apache Nifi: Neo4j: Ejecutando comandos cypher desde Apache Nifi
มุมมอง 1019 หลายเดือนก่อน
Apache Nifi: Neo4j: Ejecutando comandos cypher desde Apache Nifi
Notion: Funcionalidades Técnicas - Nivel Basico 1/1
มุมมอง 3409 หลายเดือนก่อน
Notion: Funcionalidades Técnicas - Nivel Basico 1/1
Apache Nifi: contadores y acumuladores de un atributo de varios flowfiles
มุมมอง 1209 หลายเดือนก่อน
Apache Nifi: contadores y acumuladores de un atributo de varios flowfiles
Apache Nifi: Ejecucion de programa en lenguaje Groovy
มุมมอง 9910 หลายเดือนก่อน
Apache Nifi: Ejecucion de programa en lenguaje Groovy
Apache Nifi: Ejecucion de comandos del Sistema Operativo
มุมมอง 10010 หลายเดือนก่อน
Apache Nifi: Ejecucion de comandos del Sistema Operativo
Apache Nifi: ¿Flowfiles o Files a nivel del SO, cual usar?
มุมมอง 10310 หลายเดือนก่อน
Apache Nifi: ¿Flowfiles o Files a nivel del SO, cual usar?
Apache Nifi : Propuesta de proceso unificado Transaccional y de consultas
มุมมอง 17310 หลายเดือนก่อน
Apache Nifi : Propuesta de proceso unificado Transaccional y de consultas
Notion : Breve reseña de las funcionalidades en los procesos con las tecnologias de informacion
มุมมอง 41211 หลายเดือนก่อน
Notion : Breve reseña de las funcionalidades en los procesos con las tecnologias de informacion
Apache Nifi : Backup y Restore de flujos, mediante archivos JSON, incluyendo Parametros de Contexto
มุมมอง 19311 หลายเดือนก่อน
Apache Nifi : Backup y Restore de flujos, mediante archivos JSON, incluyendo Parametros de Contexto
Apache Nifi : Ejecucion programada(schedule) de flujos con el estandar Cron
มุมมอง 26811 หลายเดือนก่อน
Apache Nifi : Ejecucion programada(schedule) de flujos con el estandar Cron
Apache Nifi : (Nivel 0) Instalación en Linux/Mac un server, https, single user
มุมมอง 38611 หลายเดือนก่อน
Apache Nifi : (Nivel 0) Instalación en Linux/Mac un server, https, single user
Hola Gonzalo, espero te encuentres bien, vi este video y estoy usando download flow definition with external service y tengo un archivo de propiedades con las variables de las conexiones de base de datos, en los controladores de servicio llamo a las variables ${db.nombrevariable}, tengo la del password pero al importar el json a otro ambiente con la api ($hostname:$port/nifi-api/process-groups/$root/process-groups/upload) no coloca la variable del password en el controlador de servicio, las otras si las importa la de la url, username, etc. Sabes si hay una forma de importar el nombre de la variable automáticamente?, sin ingresar a la interfaz gráfica y agregarla manualmente. Gracias de antemano.
Estimada Gladys, informar que Nifi trabaja con dos formas equivalentes de lo que nosotros llamamos variables. 1) Atributos que existen adjuntos a cada flowfile y se le hace referencia con el simbolo ${atributo} 2) Parametros de contextos, que existen para todos los flowfile de un grupo de procesos. Nolmalmente cuando se hace backup de un flujo, los password o valores sensibles no deben incluirse por razones de seguridad, eso siginifica que si tu haces un backup y despues lo restauras, el valores sensible como el password debe perderse, esto por estandares de seguridad. Veras que en la configuracion del controlador el password esta definido como valor sensible
@@gonzalocabreragutierrez1651 Muchas gracias Gonzalo por la respuesta.
Gracias mí Hermano!!!!😊
Gracias a ti
Muy buenos datos Gonzalo, te felicito por estar a la vanguardia de la tecnología y en específico de la IA, y espero que nos sigas iluminando con más datos que nos hagan el trabajo, la vida y el estudio más fácil. Muchas gracias!
Muchas gracias Jose, continuaré en el objetivo de compartir información útil. Saludos
Crack!!!!
Muchas Gracias
@gonzalocabreragurierrez1651 se puede programar solo para que se ejecute 1 sola vez, es decir cuando el proceso parta genere la cola y cargue la tabla y posteriormente se detenga la ejecución? gracias.
Brutal la explicación! mil gracias por compartir! muy completo.
Gracias por comentar
Profesor, una pregunta, el consume Kafka lee y lo pasa a la cola de nifi, esto no quita el proposito de kafka? Por otra parte podria subir videos sobre el uso de clusters con nifi?
Hola Alexander, gracias por lo de profesor, me gusta explicar lo que aprendo, pero no soy profesor. El proposito de consumir desde Apache Nifi un topico de Apache kafka es para procesar esa información, como tomar decisiones y acciones diferentes, enriquecer la información con otras fuentes de datos, transformar la información con determinados calculos, etc. Todas estas acciones Nifi solo las puede realizar via los flowfiles, que se transmiten entre paso y paso del flujo nifi via las conexiones, que como bien lo indicas son colas internas de nifi. Respecto a los cluster, es un video que tengo pendiente de publicar. Saludos
Hola Gonzalo excelentes los videos, estoy iniciando con nifi. Consulta, tengo un proccesor group con un flowfile que inicia la lectura de registros de sqlserver y lo inserta en postgres . el flowfile lo configure como cron como puedo ejecutar el cron fuera del entorno de nifi? Tienes videos relacionados? Muchas gracias
Hola Gladys, disculpa que no pude responder antes, tuve algunos problemas de salud, ahora todo ok. Sobre la consulta puedes activar el inicio de un grupo de procesadores, solo activando el primer procesador, via un comando a nivel del sistema operativo. Claro que si tu conexion es http, osea no segura es mas simple, pero si quieres una conexion segura via https es mucho mas complejo, con intercambio de llaves, etc. No he abordado este punto en un video aun. Ver iterfase de linea de comandos CLI para nifi, casi todas las actividades que se realizan via la interfase web, se pueden realizar via CLI. nifi.apache.org/docs/nifi-docs/html/toolkit-guide.html#nifi_CLI
@@gonzalocabreragutierrez1651 Buen dia Gonzalo que bueno que ya estas bien salud. Gracias por la respuesta.
Buenísimo, millón de gracias!!!
Gracias por comentar
excellent
thanks
Hola buenas tardes, podrías subir un video de como cargar datos a una base de datos pero con fechas ya qué lo e intentado y no e podido, marca error lo toma como texto y no como fecha 😢😢😢😢
Hola, favor comparte el error
@@gonzalocabreragutierrez1651 al utilizar el procesador llamado PutDatabaseRecord y en mi json tengo datos de fecha con el formato correcto, pero me dice que estoy metiendo texto en una columna que es del tipo fecha y no se como corregir ese error
@@gonzalocabreragutierrez1651 este es el error ( ERROR: column "f_crea_inst" is of type timestamp without time zone but expression is of type character varying Hint: You will need to rewrite or cast the expression. Position: 270 Call getNextException to see other errors in the batch .:)
adjunto ejemplo { "empleado_id": 123, "fecha_contratacion": "2024-07-24 15:30:00" } La idea es convertir el JSON a atributo Luego de eso puedes ejecutar la sentencia update de la siguiente manera UPDATE empleados SET fecha_contratacion = TO_DATE('${fecha_contratacion}', 'YYYY-MM-DD HH24:MI:SS') WHERE empleado_id = ${empleado_id};
@@gonzalocabreragutierrez1651 si lo e echo así, pero el problema es que son ta datos qué satura la base de tatos de esa forma DX
Dios mío, necesitamos profesores como usted en los institutos y universidades
Muchas gracias, tu comentario motiva hacer mas y mejores videos
Excelente aporte!!! gracias por estos videos
Gracias por comentar
Muchas gracias Gonzalo, tengo una duda, desde QueryRecord como se puede hacer la consulta en SQL para que acepte los NULL, he intentado de varias formas y ninguna la acepta.
veo que es una palabra reservada adjunto ejemplo SELECT * FROM FLOWFILE WHERE campo1 IS NULL
Buenas tardes, yo estoy usando la versión 1.26 y no encuentro el driver en la carpeta lib(que deberian estar), de que sitio pudiera descargar los drivers no solo de mysql sino de otros que pudiera necesitar?
lo he compartido drive.google.com/file/d/1uArubDBBBLTKBEDSQS1fdJj9FQsC7C7z/view?usp=sharing
@@gonzalocabreragutierrez1651 muchas gracias, al amanecer hago las pruebas en la oficina, después de escribirle comencé a averiguar con amigos y resulta que oracle tiene bloqueado el acceso a su sitio web para los que vivimos en Cuba
Saludos una duda si deseo enviar varios archivos como adjuntos en un solo correo (PUT EMAIL), como lo haria?
En teoria es posible, no lo he probado, pero aqui estan los pasos En Apache NiFi, para configurar el envío de un archivo adjunto utilizando el procesador PutEmail, puedes seguir los siguientes pasos: Agrega el procesador PutEmail a tu flujo: Puedes hacerlo arrastrando el procesador desde la barra de herramientas hasta el lienzo de tu flujo. Configura los detalles del servidor SMTP: SMTP hostname: El nombre del host del servidor SMTP (e.g., smtp.example.com). SMTP port: El puerto que utiliza el servidor SMTP (normalmente 587 para TLS o 465 para SSL). SMTP username y SMTP password: Las credenciales de autenticación, si son necesarias. From Email: La dirección de correo desde la cual se enviarán los emails. To Email: La dirección de correo del destinatario. Configura los detalles del correo: Subject: El asunto del correo. Message: El cuerpo del mensaje. Agregar un archivo adjunto: Debes asegurarte de que el archivo que deseas adjuntar está disponible para el procesador PutEmail. Esto generalmente implica que el contenido del archivo esté en el flujo de datos que llega a PutEmail. Puedes usar procesadores como FetchFile para obtener el archivo que deseas enviar. Attributes to Send as Headers (Atributos para enviar como encabezados): Aquí puedes especificar cualquier atributo dinámico que quieras incluir como encabezado en el correo. Para adjuntar un archivo, necesitas asegurarte de que el atributo que contiene el contenido del archivo se esté pasando correctamente. Conectar PutEmail con otros procesadores: Asegúrate de que el flujo de datos (que incluye el contenido del archivo como parte de los atributos del flujo) esté correctamente conectado a PutEmail. Puedes necesitar usar procesadores adicionales para preparar estos datos. Prueba tu configuración: Una vez todo está configurado, activa tu flujo y verifica que los correos se envíen correctamente con los archivos adjuntos.
excelente video !!!!
Gracias!
puedes compartir los archivos de notion?
Te refieres a los graficos?
Gracias por la explicación , que tal es Nifi para ingesta de gran volumetría de data, maneja paralelismo y particiones , como sqoop? Gracias
Cortesía de chatgpt En Apache NiFi, una herramienta para la automatización del flujo de datos entre sistemas, los conceptos de paralelismo y particiones también existen, aunque se manejan de manera diferente en comparación con Sqoop:Paralelismo:En NiFi, el paralelismo se gestiona principalmente a través de la configuración de concurrencia en cada procesador individual. Cada procesador tiene una configuración llamada "Concurrent Tasks" que determina cuántas tareas puede ejecutar en paralelo. Incrementar esta configuración permite que el procesador maneje múltiples flujos de datos simultáneamente, lo cual es útil para operaciones que pueden ser paralelizadas sin conflicto.Además, NiFi puede operar varios flujos de datos en paralelo utilizando diferentes grupos de procesadores o múltiples instancias de NiFi trabajando en conjunto a través de un clúster.Particiones:En NiFi, las particiones se pueden manejar de manera flexible mediante procesadores específicos diseñados para dividir o agrupar datos. Procesadores como PartitionRecord pueden ser usados para agrupar datos en base a atributos o campos específicos, similar a como las particiones funcionan en bases de datos.Otros procesadores que pueden manejar particiones de datos incluyen aquellos para dividir archivos grandes en partes más pequeñas, como SplitText para archivos de texto o SplitJson para archivos JSON, lo cual puede facilitar el procesamiento paralelo de estos fragmentos en pasos subsecuentes del flujo.El enfoque de NiFi hacia el paralelismo y las particiones es altamente configurable y adaptable a diferentes necesidades de procesamiento de datos, permitiendo un control granular sobre cómo se manejan y se procesan los datos en el flujo de trabajo
En cuanto a volumen de datos no he tenido problemas hasta el momento, considerando que no lo he probado el clúster con alta carga , he probado un server con cientos y miles de millones y no hay problema. Mucho depende del hardware que tengas y el tunning, de estar preparado para altos volúmenes de datos si está preparado, es uno de sus objetivos principales.
Gracias mi hermano, un feliz para todos!!!!
Gracias a ti
Hola buenas noches, como me puedo contactar con usted, sobre una duda de principiante, lo que pasa es que quiero conectar 2 getfile a un queryrecord y luego mandarlo a un putfile, pero me estoy quedando antes del putfile
hola puede ser a mi mail gc05595@gmail.com
Hola estimado, y si quisera usar getfile con un csv ya hecho, filtrar con queryrecord, se podria?
Si se puede
#notionwlm
Gracias por consultar el contenido de este video
Hola Gonzalo, podrias pasarme tu email para consultarte unas cosas ?
Por supuesto Rene! mi mail es gc05595@gmail.com
Un tutorial muy claro y bien explicado. Me ha ayudado, Gonzalo. Muchas gracias!
Gracias a ti!
Hola Gonza! Muy buenos tus videos! Como sugerencia creo que estaría bueno que tuvieran un número de clase para seguirlos en orden en la playlist! Saludos y gracias!
Hola Santiago, gracias por la sugerencia, de hecho hay algunos criterios que se pueden tomar para considerar niveles de aprendizaje, algunos videos que pueden considerarse como el nivel básico, los demás dependen mucho de la necesidad de los casos de uso que se pretenda aplicar. Saludos,
@@gonzalocabreragutierrez1651 buenísimo Gonza! Yo estoy arrancando con NiFi y quiero seguir una secuencia lógica de aprendizaje, ya que tiene muchiiiisimas posibilidades según estoy viendo en tus videos jaja. Gracias por tu respuesta!
He etiquetado los videos como (nivel 0) para indicar los videos básicos por los que se debe empezar
Hay forma de ver todo lo que se tiene dentro del cache ?
Lamenteblemente no hay forma, solo es uno por uno, conociendo la clave te da el valor
Gracias mi hermano!!!!!
A la orden
Muy interesante
Gracias! 😊
Gracias por esta información Gonzalo. A propósito del tema, yo no logro conectarme a archivos guardados en OneDrive desde Nifi para leerlos o copiarlos. ¿Sabes de alguna forma de hacerlo?
nunca lo he hecho pero esto es lo que recomienda chatgp Paso 1: Configurar la Autenticación OAuth2 Registra tu aplicación en Azure Portal para obtener el ID de cliente y el secreto de cliente. Configura el flujo de autenticación OAuth2 para obtener un token de acceso. Paso 2: Configurar Apache NiFi GetFile: Utiliza el procesador GetFile para leer el archivo que deseas subir. InvokeHTTP para obtener Token de Acceso: Configura InvokeHTTP para realizar una solicitud POST a la URL de token de OneDrive (login.microsoftonline.com/common/oauth2/v2.0/token). Añade los detalles necesarios en el cuerpo de la solicitud, como el ID de cliente, el secreto de cliente y el código de autorización. Guarda el token de acceso en un atributo de flujo para su uso posterior. InvokeHTTP para Subir Archivo: Configura otro InvokeHTTP para realizar una solicitud PUT a la API de OneDrive para subir archivos (por ejemplo, graph.microsoft.com/v1.0/me/drive/root:/FolderName/FileName.txt:/content). En los encabezados HTTP, incluye el token de acceso para la autenticación (Authorization: Bearer ${token}). Configura el cuerpo de la solicitud con el contenido del archivo a subir. LogAttribute: Usa LogAttribute para registrar la respuesta de la solicitud de subida. Esto te ayudará a depurar y confirmar que el archivo se ha subido correctamente. Paso 3: Prueba y Monitoreo Una vez configurado el flujo, ejecútalo y monitorea los resultados. Revisa los registros y la respuesta de la API para asegurarte de que el archivo se sube correctamente. Este es un ejemplo muy básico y podría requerir ajustes dependiendo de tus necesidades específicas y la configuración exacta de tu entorno OneDrive y Apache NiFi. Ten en cuenta que manejar la autenticación OAuth2 y los tokens de acceso puede ser complejo y requerir una configuración adicional.
Ok. Intentaré seguir estas instrucciones. Aunque he seguido instrucciones de ChatGPT al respecto y no me ha funcionado, pero esta es diferente. He probado con OneDrive, GoogleDrive y Dropbox y no he logrado configurarlos adecuadamente. Muchas gracias.
Una pregunta, hay algún proceso para actualizar los parámetros, que tengo el problema que me conecto a una api pero el token caduca cada 10 minutos DX DX
En principio los parametros de contexto estan diseñados para tener valores estaticos, teoricamente es posible cambiarlos pero no lo he probado, sin embargo se advierte que no es funcionalidad cambiar el contenido de los parametros de contexto de una manera frecuente, por ejemplo cada 10 min La opcion que si he probado es usando la tecnologia de cache que si esta en un video, yo la uso para guardar data que el flujo puede leer o modificar th-cam.com/video/o8DR6YkMxuI/w-d-xo.html. Sin embargo, si la recreacion del token no te genera un costo o existe alguna limitacion, la opcion mas rapida y sencilla es que cada vez que te vaz a conectar obtengas un nuevo token
Gracias mi hermano!!!!
A la orden
Buena propuesta, sería interesante ver un ejemplo práctico. Otra cosa el sonido lo sentí muy bajo.
Gracias por comentar
Gran video, me sirvió para cerrar un problema que tenia un un encodebase64
Que buena noticia que te haya servido el video!!, saludos
Excelente video
Gracias!
Nifi nacio como un etl, por ello para esta funcion es muy bueno
Gonzalo, estoy preparando una solución BI web con Softwares Open Source gratis, con Apache Superset, Postgres y para el proceso de ETL quiero usar Nifi. Esto es para iniciar un negocio de BI para pequeños y medianos negocios. ¿Crees que con Nifi yo pueda conectarme a las bases de datos vía web de los clientes que consiga, copiar los datos a mi base de datos y hacer el procesamiento (ETL) en mi base de datos?.
Cuando te refieres a conectarte via web, te refieres a web service, por ejemplo webservice rest?
Tengo la instalación de Nifi en un servidor y de ahí quiero conectarme a la base de datos de los clientes en sus respectivos negocios. No sé si eso es web service o rest.
Lo más común es la comunicación vía webservice y eso lo puede hacer nifi, pero también puede comunicarse a la base de datos vía jdbc
Muy buena información Gonzalo. Es mucho mejor esta opción. Muchas gracias.
Gracias por comentar
Excelente Gonzalo He aprendido mucho con tus videos. Son muy útiles y fáciles de entender. Muchas gracias
Que alegria que haya sido de utilidad, Saludos
Hola, buen video, pero no se ve lo que haces solo se ve la pagina web, quisiera ser en linea cambias lo del puerto, cono se llama
Efectivamente, no se ve lo que se cambia el puerto, sin embargo el video de instalacion de apache nifi en linux si se ve y es exactamente lo mismo en este punto que en windows. Las disculpas por el error. Saludos,
no entiendo que hace el forkenrichmenet, si yo tengo dos archivosy tengo que hacer un join entre esos dos como podria hacer?
Estimada, el forkEnrichment existe para etiquetar en base a atributos, cual ruta va a contener el flowfile tipo Join del flowfile tipo Enrichment, esto es indispensable para el procesador JoinEnrichment, el cual debe tener dos input, uno para el flowfile tipo Join, y otro para el flowfile tipo enrichment. En resumen solo el procesador JoinEnrichment ese el que hace la operación del Join, por esa razon tienen las propiedades para definir la linea de comandos SQL Join que queremos ejecutar.
claro, el tema es que yo tengo que hacer join entre dos archivos entonces no se si puedo enriquecer un archivo para joinearlo @@gonzalocabreragutierrez1651
que version de java es necesaria?
estoy trabajando con esta version java version "21.0.1" 2023-10-17 LTS Java(TM) SE Runtime Environment (build 21.0.1+12-LTS-29) Java HotSpot(TM) 64-Bit Server VM (build 21.0.1+12-LTS-29, mixed mode, sharing) Pero oficialmente la version 1.24 de Apache Nifi Apache NiFi 1.24 requiere Java versión 8 o 11. Es importante verificar que se esté utilizando una de estas versiones de Java para asegurar la compatibilidad y el funcionamiento óptimo de Apache NiFi.
Como sería posible, concatenar en un solo archivo .txt un Log de procesos?
la concatenacion de varios flowfiles en un solo flowfile se hace con merge (ver mi video) para luego grabarlos en un txt via putsftp
Excelente explicación, debería de dictar un curso
Gracias!!
Se tardó 15 minutos en explicar que el flujo B no pasa sin la señal del A y en 15 minutos no pudo enseñar lo más importante, la configuración de los procesadores. Mal ahí.
Lamento no alcanzar tus espectativas, seguramente los siguientes videos seran mejores. Saludos
dios si necesitaba la configuracion
Gracias mi hermano por todo el apoyo!!!!!!!! un feliz año para toda tu familia desde Colombia!!!! un ABRAZO!!!!!
Muchas Gracias, un abrazo!!
Gracias mi hermano y una feliz navidad para todos!!!!
gracias Vladimir, Feliz Navidad
Muchas gracias por los vídeos, me han ayudado mucho su guía. Acabo de implementar un ETL de producción con su serie de vídeos y claro leyendo cierta documentación.
gracias, seguire publicando mas videos
Gracias por la explicación. A mi me venia de origen un AVRO, y no andaba. Me mostraba los atributos vacios. Tuve que reemplazar los brackets que vienen en el AVRO por un espacio en blanco y anduvo. Saludos
Excelente saber que te ha sido de utilidad. Saludos
En ese caso yo usé el controlador ConvertAvroToJSON y me funcionó
Estimado Gonzalo, esta herramienta NIFI permite recepcionar data sql y darte salida hacia un web service?
Si tu pregunta se refiere a usar a Nifi como un webservice que reciba un request, al interno haga una consulta a una base de datos, y de una response con esa info. Entonces la respuesta a tu pregunta es afirmativa, mas detalles ver mi video sobre webservice en Nifi. Saludos