Muchas gracias por la excelente comparativa. Últimamente estoy haciendo bastantes pruebas con el FBPP y los resultados son casi iguales a los del WBPP siempre que tengas muchas imágenes. Pero ese siempre es mi caso porque fotografío desde una ciudad. Probé un apilado de 1300 imágenes el FBPP y tardó una hora, incluyendo el CFA Drizzle, que se llevó la mitad del tiempo. Con WBPP eran unas ocho horas. Para mí, lo importante es que me permite apilar en el portátil o en otro ordenador con pocos recursos de CPU, memoria y disco. Como voy acumulando imágenes a lo largo de los años, llegará un momento que mi PC de sobremesa no será capaz de apilar con WBPP. En el foro de PI, Juan Conejero recomienda el FBPP a partir de 25-50 imágenes si usas los ajustes por defecto en ambos métodos, es decir, si no tuneas el WBPP. Para más de 500 imágenes dice que usaría el FBPP siempre.
Gracias a ti Francisco por tan buen feedback, nos va bien a todos. Yo lo he estado usando también para la réflex apilando casi 3000 fotos de polaris, perfecto y de otra forma no lo habría apilado porque con Siril necesitaba una barbaridad de disco. Supongo que Juan Conejero nos dice eso porque con esa cantidad de fotografías los algoritmos de interpolación de los pixeles ya convergen sin importar otros métodos más complejos para estimarlos.
Puff y yo ayer apilado 1300 lights con el script tradicional de pix...se llevó toda la tarde y eso que tengo un pc potente , si llego a ver este video antes...😅
Hola. De nuevo, el vídeo presenta conclusiones que no son correctas: 1. Sólo hace falta hacer una captura de pantalla, recortar ambas imágenes y hacer un blinking para ver que el resultado con PixInsight es más nítido. Cuando emborronamos una imagen, obviamente el nivel de ruido DECRECE siempre. Siguiendo la misma lógica de vuestras conclusiones, os podría generar un master donde yo aplique un desenfoque gaussiano de 50 píxeles y tendría el menor nivel de ruido de todos los resultados con diferencia. 2. Con la misma captura de pantalla se aprecia que las PSFs son más pequeñas con FBPP. Esto está directamente relacionado con el punto 1. Además, no sirve de nada simplemente evaluar el nivel de ruido resultante sin evaluar las PSFs. De nuevo, un master menos nítido tendrá siempre menor ruido. 3. Las herramientas de preprocesamiento asignan un peso a cada uno de los subframes para que la integración sea óptima. Pero esto puede hacer que el nivel del flujo en cada uno de los masters sea diferente. No vale de nada comparar el nivel del ruido entre imágenes si antes no se ha corregido el factor multiplicativo para normalizar los flujos entre los masters. En todo caso, las apreciaciones visuales de arriba están basadas en capturas de pantalla. Estaría bien poderlas realizar sobre los masters. Pero, más allá de esas apreciaciones, algunos de los fundamentos de cómo se evalúan las imágenes son los descritos arriba. Por todo esto, las conclusiones a las que llegáis son simplemente erróneas. Ni buenas ni malas en un sentido u otro para cada paquete de software, sino simplemente equivocadas, con cálculos sin sentido y con conclusiones que sólo favorecen la distribución de información falsa. Nos haríais un favor a todos si borráis este vídeo.
Hola Vicent. Lamento profundamente si el vídeo a podido generar algún tipo de molestia y nuestra intención no ha sido verter información falsa. Son conclusiones a las que un aficionado puede llegar, sean ciertas o equivocadas, pero entiendo que pudieran molestar al considerarlas imprecisas. En el vídeo incluimos un disclaimer indicando que no se podían comparar como hicimos y que las conclusiones no eran correctas, considerando que era información útil para comprender mejor. Creo que te has quedado sólo con lo malo. Dejo un enlace para que puedas descargar los masters (te tendré que dar permisos) por si quieres realizar la comparativa con mayor precisión a las capturas de pantalla, pero supongo que te darán las mismas conclusiones. Ayúdanos por favor a comprenderlas mejor para poder corregir. drive.google.com/drive/folders/1EFDa_CRmmZeEBO258DBUAub-oN-ePPMY?usp=drive_link Ya por último, comentar que tal vez el indicador de calidad no deba ser siempre la nitidez o puntualidad, sino el ruido o lo que considere el aficionado que busca. Todo depende claro...
@@astrocitas Esta frase es para enmarcar: "Son conclusiones a las que un aficionado puede llegar, sean ciertas o equivocadas". Vamos, que al autodefiniros como aficionados, la veracidad de la información es lo de menos. En otras palabras, esto equivale a fabricar bulos. No importa que esté el disclaimer cuando el vídeo y, sobre todo las conclusiones, no son útiles sino que sirven para difundir conocimiento falso y confundir a los astrofotógrafos. Lo repito, lo mejor que podéis hacer es borrar los vídeos donde os dedicáis a analizar los másters de una forma tan incorrecta. Haríais un gran favor a miles de personas.
Vicent es evidente por tus palabras que te has sentido atacado y no era nuestra intención. Nosotros como aficionados a la astrofotografía lo que hacemos es investigar hasta donde nuestras posibilidades y conocimientos nos permiten. Evidentemente, esto es limitado y condiciona nuestras opiniones que pueden ser erróneas, como venimos diciendo desde el comienzo. Pero de ahí a decir que difundimos bulos hay una gran diferencias. Lo que nos gustaría saber es cómo poder valorar correctamente esos datos frente a diferentes herramientas, ya que es algo que muchos usuarios se preguntan y cuya información creo es difícil de encontrar. Ten en cuenta que hay muchos otros usuarios que este tipo de cosas no saben cómo abordarlas, nosotros al menos lo intentamos. Como hemos dicho, estaremos encantados de que vengas o nos ayudes a entenderlo para poder divulgarlo y corregir nuestro error. ¿Existe algún tipo de información acerca de cómo comparar la calidad de dos apilados? ¿Puedes indicarnos? Gracias
hola Vicent. Tras revisarlo con más detalle, te confirmo que es cierto que es injusto valorar todas las herramientas en esos términos, por ello, investigaré para hablar con mayor precisión sobre cómo medir la calidad de una imagen apilada y defender la postura de que es complejo comparar, dejando que cada cual juzgue y saque sus conclusiones sin emitir juicios de valor y dando herramientas. Sin embargo, he decirte que no comparto el resto de apreciaciones que haces y creo que algunas provienen desde el prejuicio y desconocimiento de lo que se hace en estos medios de opinión y análisis. Por ejemplo, consultaré qué tipo de influencia hemos tenido respecto al uso y compra de Pixinsight. Espero que te sorprenda.
Resultado de la encuesta acerca de qué tipo de influencia ha tenido nuestro canal en la percepción de Pixinsight: 152 personas encuestadas Muy positiva. Gracias al canal me he decidido a adquirirla - 23% Mucho. He mejorado en su uso y ahora la recomiendo - 51% Poco. Ya la conocía y no ha variado mi opinión - 22% Negativa. Me ha servido para darme cuenta que no es para mi - 4% Muy negativa. Me dedico a recomendar otras por vuestros vídeos - 1%
Muchas gracias por la excelente comparativa. Últimamente estoy haciendo bastantes pruebas con el FBPP y los resultados son casi iguales a los del WBPP siempre que tengas muchas imágenes. Pero ese siempre es mi caso porque fotografío desde una ciudad. Probé un apilado de 1300 imágenes el FBPP y tardó una hora, incluyendo el CFA Drizzle, que se llevó la mitad del tiempo. Con WBPP eran unas ocho horas.
Para mí, lo importante es que me permite apilar en el portátil o en otro ordenador con pocos recursos de CPU, memoria y disco. Como voy acumulando imágenes a lo largo de los años, llegará un momento que mi PC de sobremesa no será capaz de apilar con WBPP.
En el foro de PI, Juan Conejero recomienda el FBPP a partir de 25-50 imágenes si usas los ajustes por defecto en ambos métodos, es decir, si no tuneas el WBPP. Para más de 500 imágenes dice que usaría el FBPP siempre.
Gracias a ti Francisco por tan buen feedback, nos va bien a todos. Yo lo he estado usando también para la réflex apilando casi 3000 fotos de polaris, perfecto y de otra forma no lo habría apilado porque con Siril necesitaba una barbaridad de disco. Supongo que Juan Conejero nos dice eso porque con esa cantidad de fotografías los algoritmos de interpolación de los pixeles ya convergen sin importar otros métodos más complejos para estimarlos.
Vamos a ver que nos depara Siril 1.4.......... Saludos.
Usted tiene información que desconocemos. ¿Qué trae y cuándo la versión 1.4?
Puff y yo ayer apilado 1300 lights con el script tradicional de pix...se llevó toda la tarde y eso que tengo un pc potente , si llego a ver este video antes...😅
jajaja para próximos proyectos!
Hola. De nuevo, el vídeo presenta conclusiones que no son correctas:
1. Sólo hace falta hacer una captura de pantalla, recortar ambas imágenes y hacer un blinking para ver que el resultado con PixInsight es más nítido. Cuando emborronamos una imagen, obviamente el nivel de ruido DECRECE siempre. Siguiendo la misma lógica de vuestras conclusiones, os podría generar un master donde yo aplique un desenfoque gaussiano de 50 píxeles y tendría el menor nivel de ruido de todos los resultados con diferencia.
2. Con la misma captura de pantalla se aprecia que las PSFs son más pequeñas con FBPP. Esto está directamente relacionado con el punto 1. Además, no sirve de nada simplemente evaluar el nivel de ruido resultante sin evaluar las PSFs. De nuevo, un master menos nítido tendrá siempre menor ruido.
3. Las herramientas de preprocesamiento asignan un peso a cada uno de los subframes para que la integración sea óptima. Pero esto puede hacer que el nivel del flujo en cada uno de los masters sea diferente. No vale de nada comparar el nivel del ruido entre imágenes si antes no se ha corregido el factor multiplicativo para normalizar los flujos entre los masters.
En todo caso, las apreciaciones visuales de arriba están basadas en capturas de pantalla. Estaría bien poderlas realizar sobre los masters. Pero, más allá de esas apreciaciones, algunos de los fundamentos de cómo se evalúan las imágenes son los descritos arriba.
Por todo esto, las conclusiones a las que llegáis son simplemente erróneas. Ni buenas ni malas en un sentido u otro para cada paquete de software, sino simplemente equivocadas, con cálculos sin sentido y con conclusiones que sólo favorecen la distribución de información falsa. Nos haríais un favor a todos si borráis este vídeo.
Hola Vicent. Lamento profundamente si el vídeo a podido generar algún tipo de molestia y nuestra intención no ha sido verter información falsa. Son conclusiones a las que un aficionado puede llegar, sean ciertas o equivocadas, pero entiendo que pudieran molestar al considerarlas imprecisas.
En el vídeo incluimos un disclaimer indicando que no se podían comparar como hicimos y que las conclusiones no eran correctas, considerando que era información útil para comprender mejor. Creo que te has quedado sólo con lo malo.
Dejo un enlace para que puedas descargar los masters (te tendré que dar permisos) por si quieres realizar la comparativa con mayor precisión a las capturas de pantalla, pero supongo que te darán las mismas conclusiones. Ayúdanos por favor a comprenderlas mejor para poder corregir.
drive.google.com/drive/folders/1EFDa_CRmmZeEBO258DBUAub-oN-ePPMY?usp=drive_link
Ya por último, comentar que tal vez el indicador de calidad no deba ser siempre la nitidez o puntualidad, sino el ruido o lo que considere el aficionado que busca. Todo depende claro...
@@astrocitas Esta frase es para enmarcar: "Son conclusiones a las que un aficionado puede llegar, sean ciertas o equivocadas". Vamos, que al autodefiniros como aficionados, la veracidad de la información es lo de menos. En otras palabras, esto equivale a fabricar bulos.
No importa que esté el disclaimer cuando el vídeo y, sobre todo las conclusiones, no son útiles sino que sirven para difundir conocimiento falso y confundir a los astrofotógrafos. Lo repito, lo mejor que podéis hacer es borrar los vídeos donde os dedicáis a analizar los másters de una forma tan incorrecta. Haríais un gran favor a miles de personas.
Vicent es evidente por tus palabras que te has sentido atacado y no era nuestra intención. Nosotros como aficionados a la astrofotografía lo que hacemos es investigar hasta donde nuestras posibilidades y conocimientos nos permiten. Evidentemente, esto es limitado y condiciona nuestras opiniones que pueden ser erróneas, como venimos diciendo desde el comienzo. Pero de ahí a decir que difundimos bulos hay una gran diferencias.
Lo que nos gustaría saber es cómo poder valorar correctamente esos datos frente a diferentes herramientas, ya que es algo que muchos usuarios se preguntan y cuya información creo es difícil de encontrar. Ten en cuenta que hay muchos otros usuarios que este tipo de cosas no saben cómo abordarlas, nosotros al menos lo intentamos. Como hemos dicho, estaremos encantados de que vengas o nos ayudes a entenderlo para poder divulgarlo y corregir nuestro error. ¿Existe algún tipo de información acerca de cómo comparar la calidad de dos apilados? ¿Puedes indicarnos? Gracias
hola Vicent. Tras revisarlo con más detalle, te confirmo que es cierto que es injusto valorar todas las herramientas en esos términos, por ello, investigaré para hablar con mayor precisión sobre cómo medir la calidad de una imagen apilada y defender la postura de que es complejo comparar, dejando que cada cual juzgue y saque sus conclusiones sin emitir juicios de valor y dando herramientas.
Sin embargo, he decirte que no comparto el resto de apreciaciones que haces y creo que algunas provienen desde el prejuicio y desconocimiento de lo que se hace en estos medios de opinión y análisis. Por ejemplo, consultaré qué tipo de influencia hemos tenido respecto al uso y compra de Pixinsight. Espero que te sorprenda.
Resultado de la encuesta acerca de qué tipo de influencia ha tenido nuestro canal en la percepción de Pixinsight: 152 personas encuestadas
Muy positiva. Gracias al canal me he decidido a adquirirla - 23%
Mucho. He mejorado en su uso y ahora la recomiendo - 51%
Poco. Ya la conocía y no ha variado mi opinión - 22%
Negativa. Me ha servido para darme cuenta que no es para mi - 4%
Muy negativa. Me dedico a recomendar otras por vuestros vídeos - 1%