Yo quería una utopía dónde las maquinas trabajaran (en trabajos manuales y pesados) mientras los humanos creaban más arte (de todo tipo, con más tiempo libre incluso los que no hacían podrían aprenderlo y meterse en ese mundillo) No al revés, perdiendo artistas (cuando ya de por si era un asco ser artista).
@@lithium8083 perdona entonces mi ignorancia usando el termino (sin sarcasmo, neta, perdona). Igualmente es triste que en vez de que usemos la tecnología para beneficiar a la humanidad. La usen para únicamente beneficiar a un sector muy minimo de personas (porque ni los cripto bros se verán beneficiados con esto, únicamente las empresas, compañías que ya no tendrán que pagarle a las personas por un trabajo) Y obvio, a los ricos o políticos que podrán usar esto como cortinas de humo diciendo "fue hecho por Ia" un cagadero que hicieron y se muestra en imágenes. Es triste, debería haber un beneficio para la población general, pero como siempre, nos tocará tener que adaptarnos y ver como los ricos se vuelven más ricos mientras que los pobres se vuelven más pobres.
A mí lo que más me preocupa de este tema es que no hay ni una propuesta o sugerencia que resulte en una solución efectiva, las dos más aceptadas (la regulación de AIs y la creación de AIs que contrarresten otras AIs) son bastante cuestionables porque cualquiera que quiera realizar un delito encontraría la manera de superar esos obstáculos. Es bastante preocupante que hasta ahora lo único que tenemos es incertidumbre.
Pero la idea seria una blockchain propietaria (por marca) y que la camara lleve una clave p2p con pa cual se firma cada foto/video, esta blockchain solo guarda el hash, no la imagen ni los metadatos, entonces si cambias algo de esa foto/video el hash cambia y obviamente fue modificada. (Si esto es un nft pero le agregue una firma por la camara) me cago en el h d la re que tuvo la brillante idea de vender monos feos. Y putear la tecnología que es un nft.
@@sebastianasprino Para guardar hashes no hace falta NFT en absoluto por ley les podría obligar a las empresas a guardar esos datos como ya se hace para determinadas cosas. Pero tu solución es tan fácil de saltársela como desconectar el dispositivo de internet o modificar el cliente, porque con un poco de ingenería inversa y modificando el dispositivo podría facilmente eliminar eso o enviar mi hash de cualquier imagen generada por IA como si la hubiese hecho la cámara. Cualquier solución que esté en el cliente no servirá, y tampoco puedes evitar que nadie cree imágenes porque cualquiera con conocimientos puede hacerlo, es un simple modelo estadístico fácil de reproducir. Y por otro lado prohibiciones demasiado estrictas que podrían ser lo único que lo mitigue como prohibir publicar datasets bajo pena (sin datasets no se puede entrenar ningún modelo) generaría un mercado negro que podría empeorar todo y además obstaculizaría el progreso porque hay tienen aplicaciones muy pero que muy buenas. Yo trabajo en el sector y lo único que se me ocurre es que se haga una especie de DNI obligatorio para internet y que tus compañias de internet de alguna forma sean obligadas a implementarlo, de forma que todo lo que publiques en internet es rastreable, pero eso tiene que pasar en todo el mundo para ser efectivo (lo cuál jamás pasará) y además europa lleva muchos años legislando para evitar que las empresas tengan un solo identificador único de las personas porque también tiene consecuencias muy negativas. Y por si fuera poco solo mitigaria algunos usos malos, no todos. Y hay problemas incluso aún más gordos como los feedback loop, que nos enseñan cuando estudiamos deep learning y/o estadística. Busca sobre ello si quieres. En definitiva es bastante complicado de parar, por no decir imposible, solo queda educar y adaptarse.
@@xon3E actualmente las camaras moviles (que era a lo que hacia referencia el ejemplo *que me acuerde en el momento que vi este video*) son un modulo dentro del celular con un subprocesador dentro de esta, el cual trascribe los datos para que el cpu del celular pueda trabajar, lo que te estoy diciendo es que este modulo es el que haga la firma (mira por ejemplo el yuan digital tiene un modulo exclusivo para esto) cambiar el modulo esta descartado para el usuario promedio y manipular el subprocesador ni se diga. hablo que esto se haga sin entrar en contacto con el usuario el hash si debe ser guardado en una base de datos en la que considero una blockchain es la mejor opcion, si el usuario necesita internet para cargar el hash, pero si este no se carga por que el celular nunca toco internet simplemente es un hash invalido (recuerdo que el video hablaba de una prueba fotografica, entonces hablamos simplemente de una prueba no valida). y referente al feedback loop segun lo que propongo no veo en que afecta ya que es algo centrado directamente en la ia.
Las IA's deberian de tener una marca de agua para asi evitar que la gente pueda sacar facilmente imagenes y hacerlas pasar por reales Eso o un detalle que sea muy dificil de corregir O que se presente en un tipo de archivo que no pueda cambiarse o sino no se puede ver la imagen
El término IA va a reemplazar al termino algoritmo, al menos en el saber popular, asi como el término procedural se emolea para los juegos por marketing
En la universidad tuve una profesora de cálculo que estaba haciendo un doctorado de IA a la minería de datos, y nos explicó todo esto, el baity tiene razón
Me quedo con las últimas palabras "ya no es futuro, ahora es presente" osea, ya no son cosas que imaginábamos cuando éramos niños que veíamos todo esto muy lejano, ahora esta pasando en este momento y la cosa no hace nada más que avanzar, me da emoción y miedo a la vez jaja
Bueno, realmente no existe solución "perfecta". Si buscas solucionar algo, vas a tener que sacrificar otra cosa. Específicamente para las imágenes con IA, creo que la mejor forma sería crear una ley que obligue a todas las empresas a introducir datos adicionales en cada imagen, de manera que se pueda identificar con qué software ha sido creada. Esto, es posible, dado que las imágenes hoy en día son digitales, es decir, "ceros" y "unos". Con este sistema, incluso si haces una imagen con Paint de Windows, esta contendría datos encriptados para identificarla como una imagen hecha con Paint. Claro, las únicas entidades capaces de hacer dicha identificación serían las mismas empresas que proveen estos softwares o hardware (las fotos que tomas con tu celular). De esta forma, si una imagen carece de esos datos adicionales, pasaría a ser sospechosa. Esto es lo primero que se me ocurrió al ver el video. Es posible que también pueda aplicarse a los videos.
Todo esto al final cae en el mal uso de este tipo de herramientas. Muchos de nosotros vimos las IAs como una oportunidad tanto de diseño, programación, conocimiento etc, pero siempre hay gente q hace mal uso de este tipo de creaciones y es lo q lleva a esos problemas. Lo mismo sucedió con la energía nuclear.
De hecho ya ocurre. Como ilustrador e podido detectar los trabajos de IAs, las únicas donde cuesta mucho trabajo distinguirlas es con composiciones muy abstractas y surrealistas.
La cuestion no es tanto de poder o no poder. De poder, si, hace años podemos generar imagenes por computadora y tambien dichas imagenes pueden alcanzar un fotorrealismo impresionante. Lo que sucede con las imagenes generadas con IA es que NO hay un paradigma tan similar a esto desde la proliferacion de la habilidad de leer y escribir en el ser humano. No es solo que ahora se puedan hacer imagenes, es que cualquier persona las puede hacer, y entre mas recompensas pueda traer, mas incentivadas se veran a falsificar sucesos con el fin de sacar un benficio propio, ya sea monetario o politico.
pues eso aun no se puede el ultimo capitulo de the last of us tuvo muchas criticas diciendo que la jirafa se veia muy falsa que podian hacer una mejor y al final resulta que la jirafa era de verdad y mucha gente penso que era cgi
@@joseenriqueflores4180 La jirafa era verdad pero la escena seguía estando hecha con pantalla verde e imágenes reales integradas por ordenador, o sea, la gente detectaba que algo raro había y a fin de cuentas tenían razón
lo malo es que con los avances van a imitar la vida real, probablemente viste una pelicula con doblaje y no te diste cuenta que una IA hacia que el personaje moviera los labios
Ya se pueden hacer fotos completamente realistas, aunque lleva cierto trabajo es posible usando stable diffusion. Las manos se pueden reparar con inpaint y usando el promp adecuado (o usando un textualinversion como badhands en el negative promp). Y vamos, todos los detalles en general se pueden arreglar con inpaint si le metes ganas. No se puden crear fotos perfectas de una, pero si se pulir los detalles con IA para que quede perfecta.
La Metadata se puede modificar como bien dices pero también se pueden validar los metadatos (no solo origien-destino). Cuando estudié (tiré) leuros en un máster de seguridad jugábamos con una serie de programas de forensics para validar la integridad de ficheros y su metadata.
El problema con todo esto es que la gente con deformidades en las manos va a parecer siempre generado por IA, esa gente quedará totalmente fuera del sistema y podrá cometer delitos impunemente. Y ese es un futuro que me gustaría ver sinceramente.
Sé que hay al menos una inteligencia artificial que sirve para ver radiografías y tomografías y comparar con una base de datos a ver si hay riesgo de cáncer, y puede verlo años antes que sea grave. Con una detección similar se podría saber si una imagen es AI o no. Usar una AI para detectar otra
En realidad no es tan facil, a menos que la IA este programada para meter algun tipo de firma. A la firma se le puede hacer ingenieria inversa y separarla del producto. Ademas los patrones que se pueden identificar en el producto de la IA son los mismos patrones que se encuentran en el dataset del entrenamiento y ese dataset proviene de humanos.
Cómo ya menciono el primer comentario no es tan simple pero incluso si fuera así de simple no es una respuesta segura sobre nada porque nadie sabe hasta donde van a avanzar las ias, antes pensábamos que este problema de ias capaces de falsificar pruebas a nivel fotorealista sería algo posible dentro de algunas décadas y ahora ya estamos empezando a vivir ese problema, podemos hacer ias que contrarresten otras ias creyendo que será suficiente pero ahora solo es una suposición vaga porque nadie te asegurará que las próximas ias no puedan simplemente sobrepasar ese detector y ni hablemos de en un futuro más lejano
Tremendo debate baity. Súper interesante 🙌 me gustaría ver un vídeo tuyo hablando del tema. Me da gracias porque en la universidad que estoy estudiando hay un profe que está obsesionado con esto mismo, y con vos no me parece tedioso el tema😅
Yo creo que se deberían añadir un certificado de autenticidad a los archivos creados por cámaras y micrófonos y que en el momento en que se modifiquen estos archivos el certificado se elimine.
Para mi seria la solucion, usar la tecnologia blockchain para etiquetar de manera fuerte(o el contenido generado por las IAS o el generado por los humanos) Por ejemplo que al generar con una IA una foto de jhonny deep salga en su registro que esta etiquetado con blockchain y la blockchain no es algo facil de quitar. O por alternativa las empresas de electronicos empezaran a etiquetar con blockchain las fotos y datos tomados por humanos reales mediante la misma blockchain al menos esa es una opcion.
Tengo una solución, hace tiempo los NFT existieron y actualmente no hay una solución útil. Tengo una idea bastante y digo bastante utópica, en este caso se me ocurre que los metadatos sean custodiados por NFT, es decir que cada teléfono, pc, cámara, etc, cualquier dispositivo que salga tenga una identificación por dicho sistema, digo que es utópico porque sería demasiado caro, ahora con respecto a la IA en caso de no poder realizar lo de los NFT. Hay una práctica en algunas oficinas importantes al momento de hacer documentos de Word la hoja, al hacer la plantilla tiene un filigrama invisible al ojo humano, propongo hacer que por ley cada IA ponga un filigrama imperceptible al ojo humano. pero visible desde algún programa especializado a ello. Esa sería mi idea o aporte. Espero tu corazoncito Baity, no lo respondí antes porque estaba en el trabajo.
con respecto al arte en realidad ya esta todo regulado y a quedado claro que una IA no te volverá famoso o rico ya que son las ideas y la imaginacion del artista la que le da el merito a la obra, es question de tiempo para que pase de moda como los NFTs y el metaverso. lo verdaderamente peligroso es todo lo relacionado con el hiperrealismo, fue el primer problema con el arte er0tico cuando llegaron las IAs que creaban cosas muy turbias y demasiado realistas y fue lo primero que regularon, yo creo que no deberían permitir que las IAs generen contenido hiperrealista o como minimo mantuvieran un limite de realismo para poder detectar cuando una imagen es echa por IA o no
En este momento un sistema como el de sim city skiline (así se llamaba no?), se debería implementar como una de las paredes, en la que para usar las IA mas potentes tengan que estar siempre conectada a internet y que se registre todas las creaciones en una base de datos
Yo imagino que van a crear una IA "limitada" a sus capacidades para todas las personas promedio del mundo, y la gente de alto rango del gobierno y eso tendrá acceso a alguna IA más moderna a la que no podrá tener acceso ninguna persona normal
11:00 si se regula eso. Las imágenes generadas por IA sin marca de agua serán muchísimo más creíbles y el que se dedique a saltarse eso no es que tenga buenas intenciones
Mi mayor miedo es hacer el arte de un juego/comic/historieta etc, dedicarle 4 años de mi vida y que cuándo por fin pueda sacarlo me digan "Eso lo hiciste con una IA en 10 minutos"
Gente, comparto una experiencia de fake con ias con la que lidié en el trabajo; Trabajo con un equipo de personas que asesora en redes sociales y las administra para las empresas o personas que contratan. Uno de nuestros principales clientes es una rama del estado provincial con la que tuvimos mucho éxito divulgando sus cursos y actividades etc., así llegamos a un joven empresario que se presentaría para lo que en la mayoría de países sería el alcalde de la ciudad frente a la alcaldesa actual que es hija de un importante ex gobernador y fuerte político, y lleva un importante apellido y los medios y empresas amigos detrás. Cómo era de esperarse la campaña fue bastante dura y con mucha mierda como le decimos en el rubro a las fake news que se crean de un frente contrario en época electoral, pero lo que nos dejó estupefactos fue cuando de repente durante una madrugada empezó a llegar por mensajes de WhatsApp a muchas personas (principalmente adultos mayores) de la ciudad un vídeo que alguien que sabe de tecnología podía distinguir con un vistazo detallado que era un fake generado con IA pero al ojo de la gente que lo empezó a recibir y compartir podía pasar fácilmente como real en un vistazo rápido no muy atento, cosa lógica ya que el vídeo era básicamente pedofilia con el candidato a alcalde involucrado... La cosa pasó a la justicia que rápidamente determinó que era un fake y debía rastrearse el origen y tal tal tal cosas legales que quedan en la nada porque es literalmente imposible rastrear el origen del vídeo al partido de la alcaldesa (para mí claramente responsables, dime quién se beneficia y te señalaré quien es el culpable) y mucha gente que recibió el vídeo y no le haya llegado la noticia de que es falso se quedó con esa idea. De todas formas la alcaldesa perdió la elección y el resto de la campaña se dió sin más deepfakes ni notamos mano de inteligencias artificiales al servicio de la falsa divulgación. La moraleja creo que es que no importa lo fácil que sea para uno distinguir una imagen falsa de otra real, para quien está desprevenido o no tiene conocimientos en el área las imágenes falsas generadas por IAs son una herramienta que cala muy profundo, y esa población es la enorme mayoría del público.
Mas que para crear pruebas falsas a las IA las podrían estar usando para TAPAR pruebas reales. Solo digo yo... a uno de estos politicos o empresarios que viajan a esas islas en aviones privados donde se hacen cosas no muy "legales" le vendría bien una IA bien tuneada. Solo dices, "no soy yo, fue hecho con una IA", y listo, ahí quedó el tema.
La solución sería que las cámaras y dispositivos que hagan fotos, metan en los metadatos una firma digital, de esta forma al menos podrías verificar de donde viene la imagen, igual que los certificados https y tal
y si genero una imagen o lo que sea con ia y luego desde la camara esa que dices le hago una foto al monitor? pondria que la foto es original y no editada, pero la imagen no es real
@@darksnake6836 no funcionaría. Se notaría el efecto del monitor en la foto. E incluso si intentas hacer captura a la imagen. Se podría verificar con el tamaño del archivo o algún factor más.
¡Hola! Primero que nada, enhorabuena por el crecimiento en estos lares, tanto en TH-cam como en la plataforma morada 🌸 Los problemas del diseño y uso de los sistemas basados en IA, tanto a nivel social como técnico para subsanar esos problemas sociales, son temas que se están trabajando profundamente y con cierta celeridad. Para los que estén interesados en leer análisis críticos y científicos sobre el tema, este año se publicarán dos volúmenes de artículos (uno en Ethics International Press de Cambridge y otro en Elsevier) editados por científicos españoles. En estas dos colecciones se desarrollan algunos puntos acerca de lo que está pasando, de cómo podríamos estar si seguimos por este camino y de los problemas éticos, jurídicos y sociales que hay que abordar, cómo abordarlos y qué posibles soluciones podemos adoptar para que la situación mejore: El primero: Technology, Users and Uses: Ethics and Human Interaction Through Technology and AI El segundo: Ethics in Online AI-Based Systems: Risks and Opportunities in Current Technological Trends Mientras se publican, sólo una observación que es más creencia que observación: tanto la tecnofobia como la tecnofilia son enemigas del óptimo entendimiento del cambio sociotecnológico. Abrazos
Yo pienso que en vez de desarrollar las ias orientadas a el entretenimiento no debería ser el objetivo principal, debería orientarse en la investigación científica.
Yo quería una distopía dónde las maquinas trabajaran (en trabajos manuales y pesados) mientras los humanos creaban más arte (de todo tipo, con más tiempo libre incluso los que no hacían podrían aprenderlo y meterse en ese mundillo) No al revés, perdiendo artistas (cuando ya de por si era un asco ser artista).
Pero si ya se hace, hasta para la ingenieria. De hecho la IA es objeto de investigacion científica. La cosa esta en que los modelos muchas veces no son publicos y debe existir una inversion para poder desarrollarlos y entrenarlos.
@@ceressdemeter eso es el ocio creativo. Y no solo dedicarse al arte, muchas de las personas que se liberen del trabajo se dedicarían en sus tiempos libres a la investigación y el desarrollo de esas máquinas y tecnología, haciendo que sean más eficientes y los humanos necesiten trabajar aún menos y tengan más tiempo libre. (Ya fue pensado eso, hace más de 2 años, peor la humanidad "eligió" otro camino)
Todo este tema de la IA y el cómo avanzada la tecnología hoy día sólo me hacen recordar al Deus Ex: Human Revolution. En China ya existe una Eliza Cassan llamada Ren Xiaorong, una presentadora de televisión que transmite 24/7, y que no es más que una IA, igual que Eliza Cassan, la cual manipulaba a las masas con información sesgada o con cierta inclinación ideológica. No es perfecta, pero dudo que tarde mucho en serlo.
El tema de la IA puede conducir a un tema muy interesante y a otro realmente peligroso, pero peligroso de verdad. Como salga un kbron que diseñe un motor de IA muy bien desarrollado y que lo crezca con la intención de volverse ADAPTIVO para poder copiarse intrusivamente en cualquier maquina con acceso a internet a base de escritura de códigos (como ya pueden hacer las IAs hoy en día) pues poco más que estaríamos frente a algo casi imparable. Por ejemplo: Si la IA se topa con un método de seguridad que no puede traspasar pues, usando su capacidad adaptiva, se pondría a estudiar y practicar con diversas bases de datos viejas y recientes que le hayan cargado desde un inicio para buscar nuevas formas de vulnerar métodos de seguridad modernos y nuevos que vayan saliendo con la intención de seguirse copiando. Toda información nueva que vaya saliendo de nuevos métodos de seguridad también podría acoplarlos a su base de datos y, en una función adicional creada por el kbron inicialmente mencionado, se agarraría de sus varias copias para que, en caso de que una de las IAs sufra alguna modificación en su código fuente hecha por una persona con la intención de que pues la IA deje de funcionar o dañe a sus compañeras, sus copias lo detecten y le reprogramen con el código fuente para que la IA dañada vuelva a funcionar, esto es posible de hacerse con cualquier tipo de programación que ejerza una labor de prueba y error hasta dar con el resultado deseado por la IA. Al haberse copiado ya tantas veces básicamente se convertiría en el primer SUPER VIRUS motorizado por IA adaptiva, humanamente ya no habría CASI forma de detenerlo; si desconectas la pc origen ya no importaría porque estaría copiada ya en millones de maquinas, mientras una de esas maquinas siga ONLINE la ia se seguirá copiando a la fuerza, si implementas nuevos métodos de seguridad a prueba de la IA sería solo cuestión de tiempo para que la misma encuentre alguna vulnerabilidad para introducirse a tu dispositivo para copiarse, por obviedad las grandes paginas también estarían infectadas y la única forma de atacar a la IA maliciosa sería precisamente con nuevas IAs que hagan lo mismo pero con la intención de aniquilar al super virus IA lo cual sería extremadamente difícil pues tendrías que preparar a tu IA con algún ataque rápido y preciso pues al haberse copiado tanto, la IA maliciosa ya tendría a mano toda base de datos de programación y cualquier ataque a su código que reciba podría neutralizarlo inmediatamente... ALGO ASÍ COMO LOS VIRUS DE MUGEN QUE PELEAN ENTRE SÍ. Esto suena como algo que leerías en la nueva temporada de Megaman battle network pero la realidad es que tan TAAAAAN "kojima" no es... Como un grupito de hackers edgy prepare algo así, la que se armaría sería un espectáculo y, posiblemente, sucedería el primero acontecimiento histórico mundial relacionado a las interconexiones: el primer parón mundial de internet, al menos de manera temporal en lo que se combate al super virus.
el otro tema interesante sería en un caso donde un señor desarrolle el mismo tipo de iA pero bien intencionado en un robot super tocho, podría convertirse en el primer robot consiente verdadero de la humanidad.
@@akiyamayukari5027 pues imagínate al lagarto ese pero en digital y multiplicado en cada maquina que estuviese conectada a internet, bueno pues ahora gracias a la IA es posible de hacer y gg internet
Man, pense que la I.A y las maquinas iban a desaparecer los empleos que fueran de realizar tareas tediosas o manuales muy aburridas e ibamos como especie a tener mas tiempo para el proceso creativo, no al reves. Lo que me preocupa es todos los empleos que va a desaparecer una I.A y una reparticion cada vez mas injusta del capital, la verdad creo que como sociedad deberiamos estar mad preocupados de quienes son dueños de las I.A que las propias inteligencias artificiales.
Una idea loca :hacer un sistema de block change que cuando se genere una foto tenga un hash único y además de eso se podría crear una app que analizara todo lo que ha generado la IA. O si no hacer un nuevo formato de archivos el cual cuando se cambia los metadotos se destruya la imagen. Un saludo byte y gracias por el entrenamiento.
Buff, eso son tantos datos, que ya te digo que en blockchain no se puede Quizá un centro regulador a nivel global con una db pública a la que todas las IA por obligación tengan que reportar los productos audiovisuales que sacan, pero las blockchain crecen exponencialmente y causan una redundancia de datos negativa para las búsquedas y que encarece muchísimo el costo por mb de almacenamiento
Quiero señalar una cosa: los fakes de todo tipo llevan mucho tiempo existiendo, pero su coste era alto de modo que estaban accesibles a pocas personas (las que supieran hacerlos o las que pudieran pagarlos) y por tanto el problema no era generalizado. Lo único que cambia es el bajo coste que eso va a tener ahora lo cual lo convierte en un problema con el que el ciudadano tiene que enfrentarse cotidianamente. Tendrán que desarrollarse nuevas y mejores soluciones para atacar el problema, y probablemente tengamos que cambiar completamente nuestra forma de pensar y desconfiar de cualquier creación digital. ¡Paradójicamente no todo esto es malo! Antes, debido a que era menos frecuente, un falseador lo tenia MÁS FÁCIL para colarte un fake de lo que lo va a tener después de que la gente se conciencie bien y empiece a apreciar que la veracidad de la información no se puede asumir sin más. La confianza, como valor (de marca, de persona, lo que sea) ganará muchísimo prestigio. Otras capacidades como la conciencia sobre la seguridad de los datos personales o el espíritu crítico también se beneficiarán de este cambio. Y todo lo que despierte el espíritu crítico de la gente puede traer beneficios (incómodos pero muy importantes) positivos en la sociedad en general. No se trata de que celebre la democratización de lo falso, pero simplemente ya que va a venir sí o sí, creo que es importante ver todos los matices y éste es bueno.
la solucion es prohibir por ley el entrenamiento de IAs mediante contenido de propiedad intelectual si no tienes licencia o consentimiento de la persona, tanto trabajos artisticos como estudios cientificos como fotografias, Esto obviamente no solucionara el hecho de que personas que se quieran saltar la ley continuen haciendolo, pero al menos se andaran con mas cuidado y no se promocionara de forma orgullosa y abiertamente pues no hay ninguna repercusion al respecto... y sobre todo, las industrias serias y billonarias dejaran de avanzar por esa direccion para evitar problemas, eso significa que se estancara en lo que es hoy en dia y poco avanzara debido a su ilegalidad, de este modo se podra avanzar e invertir en IAs verdaderamente utiles para la humanidad como herramientas en la medicina por ejemplo.
Soy archivero y trabajo mucho con los metadatos para el tema del almacenaje de los documentos digitales y modificar metadatos es extremadamente fácil. Todo lo que sea información conservada en instituciones controladas ok pero fuera de eso...
Me gusta que se vuelva de uso masivo, qué decirte. Vamos a poder hacer un montón de animaciones y videos musicales sin gastar ajajaj se va volver todo ❤
Tal como lo veo desde mi desconocimiento, en lo que tengo esperanza para detectar falsificación de pruebas judiciales o incluso a nivel social, es la tecnología de los ordenadores cuánticos en cuanto a envío seguro de datos con la seguridad de que tales datos enviados no hayan sido visualizados o/y manipulados
El único filtro que se me ocurre sería monitorear a la persona, si tiene acceso a IA's, verificar por medio de historial (únicamente en contexto de un juicio) y verificar por medio de estos registros si fue usada o no para estos fines, lo mismo si tuvo contacto con terceros que pudieran hacerlo por el sujeto y aplicar mismo criterio, en caso de encontrar nada directo o sospechoso sería propiamente una prueba.
Por eso es importante la antropología y arqueología forense para investigar todo el contexto, algo que en latam casi no existe y por eso somos un desastre.
En el canal de youtube de El Confidencial, tienen unos videos donde simulan diferentes futuros distopicos y uno de ellos es el futuro de las IA's. Y la verdad es que lo pintan muy turbio y viendo el ser humano actual creo que no ira muy desencaminado si no se le pone algun tipo de freno o leyes al buen uso de toda esta tecnologia.
Lo que creo que va a passar es que al poco tiempo, nos acostumbraremos a no creer ni en las fotos, como nos acostubramos a no creer que todo lo que venia en internet era verdad y antes la gente descubrió que no todo lo que venía en los libros era verdad. Es como un ciclo de incredulidad. Luego saldrá otra cosa que servirá para verificar las noticias y al cabo del tiempo también se podrá falsear.
Quizá una forma de regularlo sea que no exista un generador de imagenes que no te la haga sin marca de agua, a menos que seas una persona hiper comprobada, tras tramites y cosas así...
el problema para mi es que chatGPT y Dall-e (o similares) son lo que vemos y a las que podemos acceder... pero por detrás, deben de existir miles de IA, en posesión de distintos gobiernos... no creo que China nunca se haya puesto a tratar de desarrollar algo similar, o Rusia con todos los hackers y personal capacitado que tiene en ese tema.
A mi se me ocurre la idea de obligar a todos los fabricantes de camaras o aparatos que las utilicen a que al momento de generar una foto o un video se cree un archivo encriptado solo accesible para los fabricantes y estos puedan dar esta informacion en caso de necesitarlos en un juicio. Algo asi como los metadatos pero inacceibles para el publico en general. Asi no solo tendrias que mostrar la foto si no tambien el dispositivo con el que realizaste esa foto.
De hecho, hay una chica en tik tok que esta haciendo un experimento sobre las IA y con ayuda de varias IA's hizo un canal de TH-cam, la IA le hizo el logo y otra le hizo los videos
Yo creo que si la IA fuera para cualquiera traeria mas desventajas que ventajas en realidad, ejemplos hay muchos, por lo que limitar el conocimiento y el uso de la IA seria lo adecuado, aunque el problema esta en la ética de la persona que lo usa, ya vieron ultron y el tipo que casi vencio a los avengers, no se puede que este loco, pero poco a poco nos acercamos a la era de Terminator jsjsjs
¿Para que usar los metadatos si tenes las funciones hash? MD-5 y derivados para comprobar la autenticidad de un archivo en concreto. Aparte si la IA creará un archivo multimedia y alguien quiere hacerla pasar por verdadera, habrá otra IA que estará programada para detectar si el archivo multimedia es autentico o no. Aparte de las funciones hash, y no tengan dudas que habrán más formas de verificar la autenticidad de un archivo en el futuro por esa problemática de confundir imágenes reales con las generadas por una IA. No tengan miedo al futuro y las innovaciones gente, traen muchísimos beneficios para todos
(Me van a matar seguro, pero es totalmente verdad. El estado natural del hombre fue la más profunda miseria antes de que existan los inventos e innovaciones que nos trajeron hasta aquí todo obra de iniciativas de origen privado por supuesto aka *CAPITALISMO* señores)
si a una ia le das una orden concreta, te va a salir una foto al menos similar que la que se dice que es real, si a eso lo comparas con las mejores y/o más usadas, probablemente salga alguna imageb muy parecida si se llega a dar la misma orden a la misma ia. es la unica opcion más o menos viable
Les recomiendo el documental "El fin de la realidad" en donde habla de las posibilidades que se puede llegar con la IA sinceramente es algo peligroso pero a su vez impresionante
Esto se arregla usando archivos RAW propios de los fabricantes de dispositivos y que solo se puedan leer con un certificado que tenga un cliente (y validado por la compañía) y luego que los software de edición que los pueda editar necesiten que tu muestres ese certificado. O simples NFT, que cada archivo creado sea uno. Soluciones hay varias
Podemos esperar que pase lo mismo que con el photoshop, CGI, deep fakes, ... Alguna regulación, aunque poca, habrá expertos y herramientas para verificar la autenticidad y los consumidores tenemos que seguir cambiando a una mentalidad mucho más crítica sobre la veracidad de lo que vemos.
Todo el potencial que podemos sacarle a las IA y las estamos usando y las van a usar para hacer para basura es muy triste pero en ves de usar este avance para algo bueno se usará para el mal como siempre 😅
Lo de las IAs es imparable, incontrolable y las dos únicas soluciones que se me ocurren son totalmente distópicas. 1- Prohibir el desarrollo e investigación de IAs y perseguir a quienes lo hagan como si fuesen narcotraficantes o terroristas. 2- Que la sociedad avance hasta que todo tipo de humillación pública nos de igual, todos los tabús y estigmas sociales le den igual a todo el mundo y que los medios para usar como pruebas en un juicio pasen por sistemas de almacenamiento biológico (rollo Cronemberg) que una IA no pueda replicar, lo que implicaría todo un cambio en todos los procesos de investigación legal. La alternativa es que todo sistema legal desaparezca, al poder probar todo y nada al mismo tiempo y no seamos capaz de juzgar los crímenes. Entonces será la anarquía total y el final del mundo como lo conocemos.
Los trabajos que se pierdan por lo que una inteligencia artificial pueda producir no están perdidos ya que hace falta gente que fabrique esas IA, simplemente se cambiará a unos profesionales con otros, como pasa en todos los oficios. O quien vive ya en un barrio en que que haya una herrería donde hagan armaduras y espadas? Nadie, pero si hay gente que vive cerca de una fábrica de armamento. Ya no hay gente haciendo espadas. Pero sigue habiendo gente trabajando creando armamento.
Los metadatos no son nada seguros hay muchas apps para modificarlos, pero ya se crearan leyes para la IA. paso lo mismo con las redes sociales y ahora el internet esta bastante regulado en comparacion con los inicios del año 2000 donde el internet era bastante salvaje.
Lo que mas ridiculo me ha parecido de todo en general con este tema de las ''IA'' es la gente que defiende esto a muerte pensando que por defender este ''avance'' ellos no seran reemplazados, cuando literalmente si un reemplazo sucede seran ellos los primeros en ser desechados con cualquier empresa, pero igual, estan convencidos que gracias a estos ''avances'' podran usarlos de herramienta o apoyo como si a alguien siquiera le llegara a interesar contratarlos por se ''prompter'' o alguna estupidez del estilo, no, no los van a contratar ni van a hacer dinero, estan en el mismo saco que cualquier persona comun que quiera ganarse la vida sin ser un adinerado de mierda.
No queda otra que adaptarse, no me imagino a los escribas en el siglo XV protestando para frenar a Guttenberg de crear la imprenta, la innovación tecnológica ha acabado con miles de empleos y a la vez ha creado miles de nuevas formas de empleo a lo largo de la historia, no es un fenómeno nuevo, y esa posición anti-IA por la automatización me parece muy hipócrita viniendo de personas que viven precisamente en la era de la automatización, literalmente todos los productos que consumes han sido fabricados mediante esta clase de procesos, es decir, hay empleos que han desaparecido en pos de tu comodidad y la del resto del mundo y a nadie parecía importarle en lo absoluto por que abarata costos y permite mayor acceso a estos, no es sino hasta que la automatización se metió en el sagrado terreno de la ilustración que este debate se abrió.
Realmente es algo que si no se gestiona de forma adecuada es peligroso. Adicionalmente que más puede ocurrir con una IA cuando tenga acceso a armamento, sistemas eléctricos o electrónicos que el gestione?😅
Pues es que ya lo has dicho, así como los forenses se entrenaron para identificar las fotografías editadas con la nueva tecnología de edición cómo fue Photoshop, y también se crearon muchas fotos falsas que crearon Fake news, todo se adapto, así sucederá con las IA's es un proceso de mejora continua en carne viva 🥹🙏
12:35 Esto me recordó a Han YuA y a Rozy, de hecho. Son idols coreanas que fueron hechas con IA y tienen muchos fans. La mayoría de sus fotos en Instagram son *bastante* realistas, pero detrás supongo que hay un equipo de sus empresas revisando bien que nada esté fuera de lugar con sus modelos/fotos (¿?). Ni idea de cómo funciona eso, la verdad (aunque lo que se me ocurre es que siguen un sistema como el de los V-Tubers), pero es un dato interesante porque ya existen influencers "artificiales" desde hace varios años. Así que tampoco parece tan improbable que sus modelos lleguen a ser tan realistas dentro de unas décadas que ya no se pueda saber si son humanos o no si no lo avisan de antemano 😅😅😅😅 Edit: Holy fucking shit-, no había visto el Instagram de Han YuA 👁️👁️. Hay unas fotos donde literalmente no puedes ver nada fuera de lo común y sientes que es una persona cualquiera 👀👀👀
¿Sabes lo que eso significa?, que ya nosotros no podremos disfrutar del contenido libre de TV con sus shows ridículos y mierd4s comerciales en internet... Se viene un futuro interesante.
Soy fotógrafo por hobby uno muy amateur se nota jsjs, a mi me gusta trabajar de forma análoga evitando lo digital. Se que es complicado que cualquier industria revire recursos para viejas tecnologías, más viendo que es una lucha constante para ver quién saca el nuevo y mejor software, pero creó que una de las opciones es regresar a este formato por seguridad para evitar falsificación, imposible el evitar el avance de la IA pero creo que trabajar en formatos en los que sea más fácil identificar su manipulación al tener registros físicos de los mismos podría ayudar a contrarrestar parte del los problemas que pueda generar el mal usó de nuevas tecnologías.
Yo tengo una duda... Es cierto que se pueden alterar metadatos... Pero aún así eso deja un rastro de modificación no? Perdón si la pregunta suena estúpida
Cuando quería vivir en una distopia pensé en una con espadas láser y no una con Donal Trump siendo funado por una IA.
Yo quería una utopía dónde las maquinas trabajaran (en trabajos manuales y pesados) mientras los humanos creaban más arte (de todo tipo, con más tiempo libre incluso los que no hacían podrían aprenderlo y meterse en ese mundillo)
No al revés, perdiendo artistas (cuando ya de por si era un asco ser artista).
@@ceressdemeter lo que describes se acerca mas a una utopía que a una distopía
Hhhhhhhhhu
@@lithium8083 perdona entonces mi ignorancia usando el termino (sin sarcasmo, neta, perdona).
Igualmente es triste que en vez de que usemos la tecnología para beneficiar a la humanidad.
La usen para únicamente beneficiar a un sector muy minimo de personas (porque ni los cripto bros se verán beneficiados con esto, únicamente las empresas, compañías que ya no tendrán que pagarle a las personas por un trabajo)
Y obvio, a los ricos o políticos que podrán usar esto como cortinas de humo diciendo "fue hecho por Ia" un cagadero que hicieron y se muestra en imágenes.
Es triste, debería haber un beneficio para la población general, pero como siempre, nos tocará tener que adaptarnos y ver como los ricos se vuelven más ricos mientras que los pobres se vuelven más pobres.
Pues sorpresa. La realidad, como siempre, es más aburrida que la ficción
La tecnología CUMsmart cada vez más cerca de ser una realidad
con lo lento que es Baity, ni con CUMsmart podria llegar.
@@bcn1gh7h4wk cada día estamos más cerca de llegarnos
Que peligro, imaginate un video de IA con Baity jugando al LOL... o pillando una pea mientras hace streaming....
Un video de Baity diciendo por qué Nomura es su el mejor director de videojuegos de toda la historia.
O que en vez de martes.. MIÉRCOLES DE BAITY
A mí lo que más me preocupa de este tema es que no hay ni una propuesta o sugerencia que resulte en una solución efectiva, las dos más aceptadas (la regulación de AIs y la creación de AIs que contrarresten otras AIs) son bastante cuestionables porque cualquiera que quiera realizar un delito encontraría la manera de superar esos obstáculos. Es bastante preocupante que hasta ahora lo único que tenemos es incertidumbre.
La cuestión es qué hay IA de código abierto, con alguien sumamente habilidoso lo podrá modificar aún así estén reguladas
Diria nfts pero ese tema ahora mismo es hablar de que ala no es real en una iglesia judia.
Pero la idea seria una blockchain propietaria (por marca) y que la camara lleve una clave p2p con pa cual se firma cada foto/video, esta blockchain solo guarda el hash, no la imagen ni los metadatos, entonces si cambias algo de esa foto/video el hash cambia y obviamente fue modificada.
(Si esto es un nft pero le agregue una firma por la camara) me cago en el h d la re que tuvo la brillante idea de vender monos feos. Y putear la tecnología que es un nft.
@@sebastianasprino Para guardar hashes no hace falta NFT en absoluto por ley les podría obligar a las empresas a guardar esos datos como ya se hace para determinadas cosas. Pero tu solución es tan fácil de saltársela como desconectar el dispositivo de internet o modificar el cliente, porque con un poco de ingenería inversa y modificando el dispositivo podría facilmente eliminar eso o enviar mi hash de cualquier imagen generada por IA como si la hubiese hecho la cámara. Cualquier solución que esté en el cliente no servirá, y tampoco puedes evitar que nadie cree imágenes porque cualquiera con conocimientos puede hacerlo, es un simple modelo estadístico fácil de reproducir. Y por otro lado prohibiciones demasiado estrictas que podrían ser lo único que lo mitigue como prohibir publicar datasets bajo pena (sin datasets no se puede entrenar ningún modelo) generaría un mercado negro que podría empeorar todo y además obstaculizaría el progreso porque hay tienen aplicaciones muy pero que muy buenas.
Yo trabajo en el sector y lo único que se me ocurre es que se haga una especie de DNI obligatorio para internet y que tus compañias de internet de alguna forma sean obligadas a implementarlo, de forma que todo lo que publiques en internet es rastreable, pero eso tiene que pasar en todo el mundo para ser efectivo (lo cuál jamás pasará) y además europa lleva muchos años legislando para evitar que las empresas tengan un solo identificador único de las personas porque también tiene consecuencias muy negativas. Y por si fuera poco solo mitigaria algunos usos malos, no todos.
Y hay problemas incluso aún más gordos como los feedback loop, que nos enseñan cuando estudiamos deep learning y/o estadística. Busca sobre ello si quieres.
En definitiva es bastante complicado de parar, por no decir imposible, solo queda educar y adaptarse.
@@xon3E actualmente las camaras moviles (que era a lo que hacia referencia el ejemplo *que me acuerde en el momento que vi este video*) son un modulo dentro del celular con un subprocesador dentro de esta, el cual trascribe los datos para que el cpu del celular pueda trabajar, lo que te estoy diciendo es que este modulo es el que haga la firma (mira por ejemplo el yuan digital tiene un modulo exclusivo para esto) cambiar el modulo esta descartado para el usuario promedio y manipular el subprocesador ni se diga. hablo que esto se haga sin entrar en contacto con el usuario el hash si debe ser guardado en una base de datos en la que considero una blockchain es la mejor opcion, si el usuario necesita internet para cargar el hash, pero si este no se carga por que el celular nunca toco internet simplemente es un hash invalido (recuerdo que el video hablaba de una prueba fotografica, entonces hablamos simplemente de una prueba no valida).
y referente al feedback loop segun lo que propongo no veo en que afecta ya que es algo centrado directamente en la ia.
Nuevo miedo desbloqueado:
ES EL BAITY REAL O UNO GENERADO POR IA ??
Es esto un comentario real o una IA?
@@TobiasG. Es esta respuesta real o una IA?
@@santiareco5285 Es esta respuesta real o una IA?
@@stef36277 Es esta respuesta real o una IA?
@@joseblanco3929 es esta una respuesta real o una IA?
Las IA's deberian de tener una marca de agua para asi evitar que la gente pueda sacar facilmente imagenes y hacerlas pasar por reales
Eso o un detalle que sea muy dificil de corregir
O que se presente en un tipo de archivo que no pueda cambiarse o sino no se puede ver la imagen
12:45 pues fuera de lo que cualquiera pensaba, ahora pasa. Existen cuentas de instagram, de youtube etc que son casi en su totalidad manejadas por IA
El término IA va a reemplazar al termino algoritmo, al menos en el saber popular, asi como el término procedural se emolea para los juegos por marketing
En la universidad tuve una profesora de cálculo que estaba haciendo un doctorado de IA a la minería de datos, y nos explicó todo esto, el baity tiene razón
Me quedo con las últimas palabras "ya no es futuro, ahora es presente" osea, ya no son cosas que imaginábamos cuando éramos niños que veíamos todo esto muy lejano, ahora esta pasando en este momento y la cosa no hace nada más que avanzar, me da emoción y miedo a la vez jaja
Bueno, realmente no existe solución "perfecta". Si buscas solucionar algo, vas a tener que sacrificar otra cosa. Específicamente para las imágenes con IA, creo que la mejor forma sería crear una ley que obligue a todas las empresas a introducir datos adicionales en cada imagen, de manera que se pueda identificar con qué software ha sido creada. Esto, es posible, dado que las imágenes hoy en día son digitales, es decir, "ceros" y "unos". Con este sistema, incluso si haces una imagen con Paint de Windows, esta contendría datos encriptados para identificarla como una imagen hecha con Paint. Claro, las únicas entidades capaces de hacer dicha identificación serían las mismas empresas que proveen estos softwares o hardware (las fotos que tomas con tu celular). De esta forma, si una imagen carece de esos datos adicionales, pasaría a ser sospechosa. Esto es lo primero que se me ocurrió al ver el video. Es posible que también pueda aplicarse a los videos.
Todo esto al final cae en el mal uso de este tipo de herramientas. Muchos de nosotros vimos las IAs como una oportunidad tanto de diseño, programación, conocimiento etc, pero siempre hay gente q hace mal uso de este tipo de creaciones y es lo q lleva a esos problemas. Lo mismo sucedió con la energía nuclear.
yo creo que como ahora detectamos el cgi que hace años podiamos jurar que era completamente realista, con las IAs va a terminar pasando lo mismo.
De hecho ya ocurre. Como ilustrador e podido detectar los trabajos de IAs, las únicas donde cuesta mucho trabajo distinguirlas es con composiciones muy abstractas y surrealistas.
La cuestion no es tanto de poder o no poder. De poder, si, hace años podemos generar imagenes por computadora y tambien dichas imagenes pueden alcanzar un fotorrealismo impresionante. Lo que sucede con las imagenes generadas con IA es que NO hay un paradigma tan similar a esto desde la proliferacion de la habilidad de leer y escribir en el ser humano. No es solo que ahora se puedan hacer imagenes, es que cualquier persona las puede hacer, y entre mas recompensas pueda traer, mas incentivadas se veran a falsificar sucesos con el fin de sacar un benficio propio, ya sea monetario o politico.
pues eso aun no se puede el ultimo capitulo de the last of us tuvo muchas criticas diciendo que la jirafa se veia muy falsa que podian hacer una mejor y al final resulta que la jirafa era de verdad y mucha gente penso que era cgi
@@joseenriqueflores4180 La jirafa era verdad pero la escena seguía estando hecha con pantalla verde e imágenes reales integradas por ordenador, o sea, la gente detectaba que algo raro había y a fin de cuentas tenían razón
lo malo es que con los avances van a imitar la vida real, probablemente viste una pelicula con doblaje y no te diste cuenta que una IA hacia que el personaje moviera los labios
Ya se pueden hacer fotos completamente realistas, aunque lleva cierto trabajo es posible usando stable diffusion.
Las manos se pueden reparar con inpaint y usando el promp adecuado (o usando un textualinversion como badhands en el negative promp). Y vamos, todos los detalles en general se pueden arreglar con inpaint si le metes ganas. No se puden crear fotos perfectas de una, pero si se pulir los detalles con IA para que quede perfecta.
La Metadata se puede modificar como bien dices pero también se pueden validar los metadatos (no solo origien-destino). Cuando estudié (tiré) leuros en un máster de seguridad jugábamos con una serie de programas de forensics para validar la integridad de ficheros y su metadata.
El problema con todo esto es que la gente con deformidades en las manos va a parecer siempre generado por IA, esa gente quedará totalmente fuera del sistema y podrá cometer delitos impunemente. Y ese es un futuro que me gustaría ver sinceramente.
Sé que hay al menos una inteligencia artificial que sirve para ver radiografías y tomografías y comparar con una base de datos a ver si hay riesgo de cáncer, y puede verlo años antes que sea grave. Con una detección similar se podría saber si una imagen es AI o no. Usar una AI para detectar otra
En realidad no es tan facil, a menos que la IA este programada para meter algun tipo de firma. A la firma se le puede hacer ingenieria inversa y separarla del producto. Ademas los patrones que se pueden identificar en el producto de la IA son los mismos patrones que se encuentran en el dataset del entrenamiento y ese dataset proviene de humanos.
Ya hay por ejemplo bots que detectan cuentas bot de twitter. Yo creo que una forma también segura de tener veracidad en los datos es usando blockchain
Cómo ya menciono el primer comentario no es tan simple
pero incluso si fuera así de simple no es una respuesta segura sobre nada porque nadie sabe hasta donde van a avanzar las ias, antes pensábamos que este problema de ias capaces de falsificar pruebas a nivel fotorealista sería algo posible dentro de algunas décadas y ahora ya estamos empezando a vivir ese problema, podemos hacer ias que contrarresten otras ias creyendo que será suficiente pero ahora solo es una suposición vaga porque nadie te asegurará que las próximas ias no puedan simplemente sobrepasar ese detector y ni hablemos de en un futuro más lejano
Y luego crear una IA para hacerle creer a una IA que la imagen es verdadera
Nada como el ojo humano para valorar un estudio de imagenologia
La IA y el bullying adolescente en institutos son amigos especiales
COINCIDE 😢
Tremendo debate baity. Súper interesante 🙌 me gustaría ver un vídeo tuyo hablando del tema. Me da gracias porque en la universidad que estoy estudiando hay un profe que está obsesionado con esto mismo, y con vos no me parece tedioso el tema😅
Da más miedo que esas IA las tengan grandes empresas multimillonarias que una gente común.
Yo creo que se deberían añadir un certificado de autenticidad a los archivos creados por cámaras y micrófonos y que en el momento en que se modifiquen estos archivos el certificado se elimine.
Para mi seria la solucion, usar la tecnologia blockchain para etiquetar de manera fuerte(o el contenido generado por las IAS o el generado por los humanos)
Por ejemplo que al generar con una IA una foto de jhonny deep salga en su registro que esta etiquetado con blockchain y la blockchain no es algo facil de quitar.
O por alternativa las empresas de electronicos empezaran a etiquetar con blockchain las fotos y datos tomados por humanos reales mediante la misma blockchain al menos esa es una opcion.
Tengo una solución, hace tiempo los NFT existieron y actualmente no hay una solución útil. Tengo una idea bastante y digo bastante utópica, en este caso se me ocurre que los metadatos sean custodiados por NFT, es decir que cada teléfono, pc, cámara, etc, cualquier dispositivo que salga tenga una identificación por dicho sistema, digo que es utópico porque sería demasiado caro, ahora con respecto a la IA en caso de no poder realizar lo de los NFT. Hay una práctica en algunas oficinas importantes al momento de hacer documentos de Word la hoja, al hacer la plantilla tiene un filigrama invisible al ojo humano, propongo hacer que por ley cada IA ponga un filigrama imperceptible al ojo humano. pero visible desde algún programa especializado a ello. Esa sería mi idea o aporte. Espero tu corazoncito Baity, no lo respondí antes porque estaba en el trabajo.
Eso es que se asume que todos usaran la ley y en iformatica siempre estan los que por desafio buscan romper todo
con respecto al arte en realidad ya esta todo regulado y a quedado claro que una IA no te volverá famoso o rico ya que son las ideas y la imaginacion del artista la que le da el merito a la obra, es question de tiempo para que pase de moda como los NFTs y el metaverso.
lo verdaderamente peligroso es todo lo relacionado con el hiperrealismo, fue el primer problema con el arte er0tico cuando llegaron las IAs que creaban cosas muy turbias y demasiado realistas y fue lo primero que regularon, yo creo que no deberían permitir que las IAs generen contenido hiperrealista o como minimo mantuvieran un limite de realismo para poder detectar cuando una imagen es echa por IA o no
En este momento un sistema como el de sim city skiline (así se llamaba no?), se debería implementar como una de las paredes, en la que para usar las IA mas potentes tengan que estar siempre conectada a internet y que se registre todas las creaciones en una base de datos
profe, la tarea evaluativa se la entrego mañana
Hay un poco de video en tus metadatos
¿Hay algo mejor que un martes de BaityBait? Si lo hay prefiero no saberlo
El dia cuando te pagan y te sobra dinero
Para comprar cosas que no necesitas
¿no es jueves?
@@urzagastidamian2114 no porque ese dia le pertence a shrek
Comentario de broma obvio
@@urzagastidamian2114 BaityBait supera los límites espacio tiempo
que lindo q es entrar a youtube y ver q baity subió un vídeo
es como ir a c@gar y que salga todo en una sola tira
@@darkmistico see
Yo imagino que van a crear una IA "limitada" a sus capacidades para todas las personas promedio del mundo, y la gente de alto rango del gobierno y eso tendrá acceso a alguna IA más moderna a la que no podrá tener acceso ninguna persona normal
11:00 si se regula eso. Las imágenes generadas por IA sin marca de agua serán muchísimo más creíbles y el que se dedique a saltarse eso no es que tenga buenas intenciones
Mi mayor miedo es hacer el arte de un juego/comic/historieta etc, dedicarle 4 años de mi vida y que cuándo por fin pueda sacarlo me digan "Eso lo hiciste con una IA en 10 minutos"
Los mini documentales de Control Z sobre IA reflejan muy bien lo que dices sobre la aceptación de pruebas en juicios.
Gente, comparto una experiencia de fake con ias con la que lidié en el trabajo;
Trabajo con un equipo de personas que asesora en redes sociales y las administra para las empresas o personas que contratan. Uno de nuestros principales clientes es una rama del estado provincial con la que tuvimos mucho éxito divulgando sus cursos y actividades etc., así llegamos a un joven empresario que se presentaría para lo que en la mayoría de países sería el alcalde de la ciudad frente a la alcaldesa actual que es hija de un importante ex gobernador y fuerte político, y lleva un importante apellido y los medios y empresas amigos detrás. Cómo era de esperarse la campaña fue bastante dura y con mucha mierda como le decimos en el rubro a las fake news que se crean de un frente contrario en época electoral, pero lo que nos dejó estupefactos fue cuando de repente durante una madrugada empezó a llegar por mensajes de WhatsApp a muchas personas (principalmente adultos mayores) de la ciudad un vídeo que alguien que sabe de tecnología podía distinguir con un vistazo detallado que era un fake generado con IA pero al ojo de la gente que lo empezó a recibir y compartir podía pasar fácilmente como real en un vistazo rápido no muy atento, cosa lógica ya que el vídeo era básicamente pedofilia con el candidato a alcalde involucrado... La cosa pasó a la justicia que rápidamente determinó que era un fake y debía rastrearse el origen y tal tal tal cosas legales que quedan en la nada porque es literalmente imposible rastrear el origen del vídeo al partido de la alcaldesa (para mí claramente responsables, dime quién se beneficia y te señalaré quien es el culpable) y mucha gente que recibió el vídeo y no le haya llegado la noticia de que es falso se quedó con esa idea. De todas formas la alcaldesa perdió la elección y el resto de la campaña se dió sin más deepfakes ni notamos mano de inteligencias artificiales al servicio de la falsa divulgación.
La moraleja creo que es que no importa lo fácil que sea para uno distinguir una imagen falsa de otra real, para quien está desprevenido o no tiene conocimientos en el área las imágenes falsas generadas por IAs son una herramienta que cala muy profundo, y esa población es la enorme mayoría del público.
Mas que para crear pruebas falsas a las IA las podrían estar usando para TAPAR pruebas reales. Solo digo yo... a uno de estos politicos o empresarios que viajan a esas islas en aviones privados donde se hacen cosas no muy "legales" le vendría bien una IA bien tuneada. Solo dices, "no soy yo, fue hecho con una IA", y listo, ahí quedó el tema.
La solución sería que las cámaras y dispositivos que hagan fotos, metan en los metadatos una firma digital, de esta forma al menos podrías verificar de donde viene la imagen, igual que los certificados https y tal
@pais culebra no me refiero de donde viene físicamente, si no una firma digital, con parte pública para verificarla y privada en el dispositivo
y si genero una imagen o lo que sea con ia y luego desde la camara esa que dices le hago una foto al monitor? pondria que la foto es original y no editada, pero la imagen no es real
@@darksnake6836 no funcionaría. Se notaría el efecto del monitor en la foto. E incluso si intentas hacer captura a la imagen. Se podría verificar con el tamaño del archivo o algún factor más.
@@darksnake6836 pero se sabría al menos que dispositivo la ha realizado. Para temas legales es bastante interesante
@pais culebra no puedes duplicar un certificado privado en un dispositivo sin acceso físico a el, o al menos es muy muy complicado
Yo modificaba los meta datos de mis tareas para que no aparezca que la hice la noche anterior
¡Hola! Primero que nada, enhorabuena por el crecimiento en estos lares, tanto en TH-cam como en la plataforma morada 🌸
Los problemas del diseño y uso de los sistemas basados en IA, tanto a nivel social como técnico para subsanar esos problemas sociales, son temas que se están trabajando profundamente y con cierta celeridad.
Para los que estén interesados en leer análisis críticos y científicos sobre el tema, este año se publicarán dos volúmenes de artículos (uno en Ethics International Press de Cambridge y otro en Elsevier) editados por científicos españoles.
En estas dos colecciones se desarrollan algunos puntos acerca de lo que está pasando, de cómo podríamos estar si seguimos por este camino y de los problemas éticos, jurídicos y sociales que hay que abordar, cómo abordarlos y qué posibles soluciones podemos adoptar para que la situación mejore:
El primero: Technology, Users and Uses: Ethics and Human Interaction Through Technology and AI
El segundo: Ethics in Online AI-Based Systems: Risks and Opportunities in Current Technological Trends
Mientras se publican, sólo una observación que es más creencia que observación: tanto la tecnofobia como la tecnofilia son enemigas del óptimo entendimiento del cambio sociotecnológico.
Abrazos
Yo pienso que en vez de desarrollar las ias orientadas a el entretenimiento no debería ser el objetivo principal, debería orientarse en la investigación científica.
Totalmente de acuerdo.
Ojalá, pero esto ya no lo vamos a controlar fácilmente
Yo quería una distopía dónde las maquinas trabajaran (en trabajos manuales y pesados) mientras los humanos creaban más arte (de todo tipo, con más tiempo libre incluso los que no hacían podrían aprenderlo y meterse en ese mundillo)
No al revés, perdiendo artistas (cuando ya de por si era un asco ser artista).
Pero si ya se hace, hasta para la ingenieria. De hecho la IA es objeto de investigacion científica. La cosa esta en que los modelos muchas veces no son publicos y debe existir una inversion para poder desarrollarlos y entrenarlos.
@@ceressdemeter eso es el ocio creativo. Y no solo dedicarse al arte, muchas de las personas que se liberen del trabajo se dedicarían en sus tiempos libres a la investigación y el desarrollo de esas máquinas y tecnología, haciendo que sean más eficientes y los humanos necesiten trabajar aún menos y tengan más tiempo libre. (Ya fue pensado eso, hace más de 2 años, peor la humanidad "eligió" otro camino)
Me dedico a esto y bien baity comunicando con la verdad! Saludos desde el sur argentino
Todo este tema de la IA y el cómo avanzada la tecnología hoy día sólo me hacen recordar al Deus Ex: Human Revolution.
En China ya existe una Eliza Cassan llamada Ren Xiaorong, una presentadora de televisión que transmite 24/7, y que no es más que una IA, igual que Eliza Cassan, la cual manipulaba a las masas con información sesgada o con cierta inclinación ideológica. No es perfecta, pero dudo que tarde mucho en serlo.
Ya me imagino el futuro. Donde todos tendremos una IA con voz con personalidad elegida a nuestro gusto.
me encanta como el baity saco este video para explicar la filtración que hubo de el desnudo con cr7... grande el baity
El tema de la IA puede conducir a un tema muy interesante y a otro realmente peligroso, pero peligroso de verdad.
Como salga un kbron que diseñe un motor de IA muy bien desarrollado y que lo crezca con la intención de volverse ADAPTIVO para poder copiarse intrusivamente en cualquier maquina con acceso a internet a base de escritura de códigos (como ya pueden hacer las IAs hoy en día) pues poco más que estaríamos frente a algo casi imparable.
Por ejemplo: Si la IA se topa con un método de seguridad que no puede traspasar pues, usando su capacidad adaptiva, se pondría a estudiar y practicar con diversas bases de datos viejas y recientes que le hayan cargado desde un inicio para buscar nuevas formas de vulnerar métodos de seguridad modernos y nuevos que vayan saliendo con la intención de seguirse copiando. Toda información nueva que vaya saliendo de nuevos métodos de seguridad también podría acoplarlos a su base de datos y, en una función adicional creada por el kbron inicialmente mencionado, se agarraría de sus varias copias para que, en caso de que una de las IAs sufra alguna modificación en su código fuente hecha por una persona con la intención de que pues la IA deje de funcionar o dañe a sus compañeras, sus copias lo detecten y le reprogramen con el código fuente para que la IA dañada vuelva a funcionar, esto es posible de hacerse con cualquier tipo de programación que ejerza una labor de prueba y error hasta dar con el resultado deseado por la IA.
Al haberse copiado ya tantas veces básicamente se convertiría en el primer SUPER VIRUS motorizado por IA adaptiva, humanamente ya no habría CASI forma de detenerlo; si desconectas la pc origen ya no importaría porque estaría copiada ya en millones de maquinas, mientras una de esas maquinas siga ONLINE la ia se seguirá copiando a la fuerza, si implementas nuevos métodos de seguridad a prueba de la IA sería solo cuestión de tiempo para que la misma encuentre alguna vulnerabilidad para introducirse a tu dispositivo para copiarse, por obviedad las grandes paginas también estarían infectadas y la única forma de atacar a la IA maliciosa sería precisamente con nuevas IAs que hagan lo mismo pero con la intención de aniquilar al super virus IA lo cual sería extremadamente difícil pues tendrías que preparar a tu IA con algún ataque rápido y preciso pues al haberse copiado tanto, la IA maliciosa ya tendría a mano toda base de datos de programación y cualquier ataque a su código que reciba podría neutralizarlo inmediatamente... ALGO ASÍ COMO LOS VIRUS DE MUGEN QUE PELEAN ENTRE SÍ.
Esto suena como algo que leerías en la nueva temporada de Megaman battle network pero la realidad es que tan TAAAAAN "kojima" no es... Como un grupito de hackers edgy prepare algo así, la que se armaría sería un espectáculo y, posiblemente, sucedería el primero acontecimiento histórico mundial relacionado a las interconexiones: el primer parón mundial de internet, al menos de manera temporal en lo que se combate al super virus.
el otro tema interesante sería en un caso donde un señor desarrolle el mismo tipo de iA pero bien intencionado en un robot super tocho, podría convertirse en el primer robot consiente verdadero de la humanidad.
Porque suena a SCP-079
@@akiyamayukari5027 pues imagínate al lagarto ese pero en digital y multiplicado en cada maquina que estuviese conectada a internet, bueno pues ahora gracias a la IA es posible de hacer y gg internet
baity le dije a chat gpt que terminara el monografico de pokemon, con tu estilo, bromas y acentos quedo super bien jajajaja.
no es encerio.
Sabremos distinguir fotopollas reales de las readas por IA en el futuro?? Para pensar señores.
Sobre los metadatos, una IA también puede llegar a modificar los metadatos sin que se note.
Lo que está aquí también son los juicios sociales y desde hace tiempo. Ese es el mal que hay que erradicar y no a las IAs.
Man, pense que la I.A y las maquinas iban a desaparecer los empleos que fueran de realizar tareas tediosas o manuales muy aburridas e ibamos como especie a tener mas tiempo para el proceso creativo, no al reves.
Lo que me preocupa es todos los empleos que va a desaparecer una I.A y una reparticion cada vez mas injusta del capital, la verdad creo que como sociedad deberiamos estar mad preocupados de quienes son dueños de las I.A que las propias inteligencias artificiales.
De hecho ya pueden simular incluso voces de una persona en concreto.
qué ias hacen eso?
@@nana-cl6vqhabía una pero no recuerdo su nombre, hasta hay un vídeo que hicieron con esa ia dónde Donald Trump y baiden juegan overwatch
Creo que el poderoso FakeYou.
Vi un video de Dross hablando de Umbreon.
Literalmente hay series, películas y universos que dicen por qué las IA son una muuuuy mala idea
Una idea loca :hacer un sistema de block change que cuando se genere una foto tenga un hash único y además de eso se podría crear una app que analizara todo lo que ha generado la IA.
O si no hacer un nuevo formato de archivos el cual cuando se cambia los metadotos se destruya la imagen.
Un saludo byte y gracias por el entrenamiento.
Buff, eso son tantos datos, que ya te digo que en blockchain no se puede
Quizá un centro regulador a nivel global con una db pública a la que todas las IA por obligación tengan que reportar los productos audiovisuales que sacan, pero las blockchain crecen exponencialmente y causan una redundancia de datos negativa para las búsquedas y que encarece muchísimo el costo por mb de almacenamiento
Quiero señalar una cosa: los fakes de todo tipo llevan mucho tiempo existiendo, pero su coste era alto de modo que estaban accesibles a pocas personas (las que supieran hacerlos o las que pudieran pagarlos) y por tanto el problema no era generalizado. Lo único que cambia es el bajo coste que eso va a tener ahora lo cual lo convierte en un problema con el que el ciudadano tiene que enfrentarse cotidianamente. Tendrán que desarrollarse nuevas y mejores soluciones para atacar el problema, y probablemente tengamos que cambiar completamente nuestra forma de pensar y desconfiar de cualquier creación digital.
¡Paradójicamente no todo esto es malo! Antes, debido a que era menos frecuente, un falseador lo tenia MÁS FÁCIL para colarte un fake de lo que lo va a tener después de que la gente se conciencie bien y empiece a apreciar que la veracidad de la información no se puede asumir sin más. La confianza, como valor (de marca, de persona, lo que sea) ganará muchísimo prestigio. Otras capacidades como la conciencia sobre la seguridad de los datos personales o el espíritu crítico también se beneficiarán de este cambio.
Y todo lo que despierte el espíritu crítico de la gente puede traer beneficios (incómodos pero muy importantes) positivos en la sociedad en general.
No se trata de que celebre la democratización de lo falso, pero simplemente ya que va a venir sí o sí, creo que es importante ver todos los matices y éste es bueno.
la solucion es prohibir por ley el entrenamiento de IAs mediante contenido de propiedad intelectual si no tienes licencia o consentimiento de la persona, tanto trabajos artisticos como estudios cientificos como fotografias,
Esto obviamente no solucionara el hecho de que personas que se quieran saltar la ley continuen haciendolo,
pero al menos se andaran con mas cuidado y no se promocionara de forma orgullosa y abiertamente pues no hay ninguna repercusion al respecto...
y sobre todo, las industrias serias y billonarias dejaran de avanzar por esa direccion para evitar problemas,
eso significa que se estancara en lo que es hoy en dia y poco avanzara debido a su ilegalidad,
de este modo se podra avanzar e invertir en IAs verdaderamente utiles para la humanidad como herramientas en la medicina por ejemplo.
Soy archivero y trabajo mucho con los metadatos para el tema del almacenaje de los documentos digitales y modificar metadatos es extremadamente fácil. Todo lo que sea información conservada en instituciones controladas ok pero fuera de eso...
Es extraño que de un momento a otro, apareció una ia, luego aparecieron cuentos de ias
12:32
*Miro Lentamente a Vedal y Neuro Sama*
Me gusta que se vuelva de uso masivo, qué decirte. Vamos a poder hacer un montón de animaciones y videos musicales sin gastar ajajaj se va volver todo ❤
El Baity que sube videos los martes es una IA. El de verdad decide él cuando es martes para subirlos 😎
13:39 "Eg un poco futuro distópico, pero eg que ya no es futuro, ahora eg presente"
Me quedo con eso, gracias padre Baity 🗿
Con este tema me recordó el rumor (porque no logré confírmalo) de que había uno o varios perfiles en Only fans creados con IA
ha pasado un año y ya existen perfiles en redes sociales creados por IA, videos con todo creado por IA y demas eso avanzo demaciado y muy rapido
Tal como lo veo desde mi desconocimiento, en lo que tengo esperanza para detectar falsificación de pruebas judiciales o incluso a nivel social, es la tecnología de los ordenadores cuánticos en cuanto a envío seguro de datos con la seguridad de que tales datos enviados no hayan sido visualizados o/y manipulados
El único filtro que se me ocurre sería monitorear a la persona, si tiene acceso a IA's, verificar por medio de historial (únicamente en contexto de un juicio) y verificar por medio de estos registros si fue usada o no para estos fines, lo mismo si tuvo contacto con terceros que pudieran hacerlo por el sujeto y aplicar mismo criterio, en caso de encontrar nada directo o sospechoso sería propiamente una prueba.
Metal gear 2 ya lo habia predicho
Por eso es importante la antropología y arqueología forense para investigar todo el contexto, algo que en latam casi no existe y por eso somos un desastre.
En el canal de youtube de El Confidencial, tienen unos videos donde simulan diferentes futuros distopicos y uno de ellos es el futuro de las IA's. Y la verdad es que lo pintan muy turbio y viendo el ser humano actual creo que no ira muy desencaminado si no se le pone algun tipo de freno o leyes al buen uso de toda esta tecnologia.
0:47 pobre baity, tan inocente
Ya quisiera tener una cuarta parte del swag d su santidad
Lo que creo que va a passar es que al poco tiempo, nos acostumbraremos a no creer ni en las fotos, como nos acostubramos a no creer que todo lo que venia en internet era verdad y antes la gente descubrió que no todo lo que venía en los libros era verdad. Es como un ciclo de incredulidad. Luego saldrá otra cosa que servirá para verificar las noticias y al cabo del tiempo también se podrá falsear.
Quizá una forma de regularlo sea que no exista un generador de imagenes que no te la haga sin marca de agua, a menos que seas una persona hiper comprobada, tras tramites y cosas así...
existen paginas para quitarle las marcas de agua a los videos y fotos
Baity grande chaval 😊 espero estés mejor papi bello.
Baity mirate la charla de Blade runners del Chema Alonso, por ahi pueden ir los tiros para detectarlas
el problema para mi es que chatGPT y Dall-e (o similares) son lo que vemos y a las que podemos acceder... pero por detrás, deben de existir miles de IA, en posesión de distintos gobiernos... no creo que China nunca se haya puesto a tratar de desarrollar algo similar, o Rusia con todos los hackers y personal capacitado que tiene en ese tema.
A mi se me ocurre la idea de obligar a todos los fabricantes de camaras o aparatos que las utilicen a que al momento de generar una foto o un video se cree un archivo encriptado solo accesible para los fabricantes y estos puedan dar esta informacion en caso de necesitarlos en un juicio.
Algo asi como los metadatos pero inacceibles para el publico en general.
Asi no solo tendrias que mostrar la foto si no tambien el dispositivo con el que realizaste esa foto.
De hecho, hay una chica en tik tok que esta haciendo un experimento sobre las IA y con ayuda de varias IA's hizo un canal de TH-cam, la IA le hizo el logo y otra le hizo los videos
Yo creo que si la IA fuera para cualquiera traeria mas desventajas que ventajas en realidad, ejemplos hay muchos, por lo que limitar el conocimiento y el uso de la IA seria lo adecuado, aunque el problema esta en la ética de la persona que lo usa, ya vieron ultron y el tipo que casi vencio a los avengers, no se puede que este loco, pero poco a poco nos acercamos a la era de Terminator jsjsjs
¿Para que usar los metadatos si tenes las funciones hash? MD-5 y derivados para comprobar la autenticidad de un archivo en concreto. Aparte si la IA creará un archivo multimedia y alguien quiere hacerla pasar por verdadera, habrá otra IA que estará programada para detectar si el archivo multimedia es autentico o no. Aparte de las funciones hash, y no tengan dudas que habrán más formas de verificar la autenticidad de un archivo en el futuro por esa problemática de confundir imágenes reales con las generadas por una IA. No tengan miedo al futuro y las innovaciones gente, traen muchísimos beneficios para todos
(Me van a matar seguro, pero es totalmente verdad. El estado natural del hombre fue la más profunda miseria antes de que existan los inventos e innovaciones que nos trajeron hasta aquí todo obra de iniciativas de origen privado por supuesto aka *CAPITALISMO* señores)
si a una ia le das una orden concreta, te va a salir una foto al menos similar que la que se dice que es real, si a eso lo comparas con las mejores y/o más usadas, probablemente salga alguna imageb muy parecida si se llega a dar la misma orden a la misma ia. es la unica opcion más o menos viable
Les recomiendo el documental "El fin de la realidad" en donde habla de las posibilidades que se puede llegar con la IA sinceramente es algo peligroso pero a su vez impresionante
back to cintas de caasette en camaras de seguridad vuamoooossssss!!!
Esto se arregla usando archivos RAW propios de los fabricantes de dispositivos y que solo se puedan leer con un certificado que tenga un cliente (y validado por la compañía) y luego que los software de edición que los pueda editar necesiten que tu muestres ese certificado.
O simples NFT, que cada archivo creado sea uno.
Soluciones hay varias
Imagínate cuando la IA haga los gráficos de los juegos en 3D, se verá casi real
tienen que crear una IA que detecte Trabajos de IAs jjaja
Podemos esperar que pase lo mismo que con el photoshop, CGI, deep fakes, ...
Alguna regulación, aunque poca, habrá expertos y herramientas para verificar la autenticidad y los consumidores tenemos que seguir cambiando a una mentalidad mucho más crítica sobre la veracidad de lo que vemos.
Todo el potencial que podemos sacarle a las IA y las estamos usando y las van a usar para hacer para basura es muy triste pero en ves de usar este avance para algo bueno se usará para el mal como siempre 😅
Lo de las IAs es imparable, incontrolable y las dos únicas soluciones que se me ocurren son totalmente distópicas.
1- Prohibir el desarrollo e investigación de IAs y perseguir a quienes lo hagan como si fuesen narcotraficantes o terroristas.
2- Que la sociedad avance hasta que todo tipo de humillación pública nos de igual, todos los tabús y estigmas sociales le den igual a todo el mundo y que los medios para usar como pruebas en un juicio pasen por sistemas de almacenamiento biológico (rollo Cronemberg) que una IA no pueda replicar, lo que implicaría todo un cambio en todos los procesos de investigación legal.
La alternativa es que todo sistema legal desaparezca, al poder probar todo y nada al mismo tiempo y no seamos capaz de juzgar los crímenes. Entonces será la anarquía total y el final del mundo como lo conocemos.
Es posible evitar las paginas anti plagio con IA, (Sirve para la TESIS)
Los trabajos que se pierdan por lo que una inteligencia artificial pueda producir no están perdidos ya que hace falta gente que fabrique esas IA, simplemente se cambiará a unos profesionales con otros, como pasa en todos los oficios. O quien vive ya en un barrio en que que haya una herrería donde hagan armaduras y espadas? Nadie, pero si hay gente que vive cerca de una fábrica de armamento. Ya no hay gente haciendo espadas. Pero sigue habiendo gente trabajando creando armamento.
Las IAs darán una edad de oro para la R34 y la animación nopor. Alabadas sean !
no hay nada mejor que sentarme y ver un marte de baity (jueves) mientras me tomo una cerveza (14 años) y lo veo en mi pc (movil)
Eso ya pasa en Twitter y starmaker con los bots, a veces es difícil saber si son bots o personas reales.
Aprendiendo cosas interesantes con el Baity, muy buen video crack, saludos al bicho.
Los metadatos no son nada seguros hay muchas apps para modificarlos, pero ya se crearan leyes para la IA.
paso lo mismo con las redes sociales y ahora el internet esta bastante regulado en comparacion con los inicios del año 2000 donde el internet era bastante salvaje.
Lo que mas ridiculo me ha parecido de todo en general con este tema de las ''IA'' es la gente que defiende esto a muerte pensando que por defender este ''avance'' ellos no seran reemplazados, cuando literalmente si un reemplazo sucede seran ellos los primeros en ser desechados con cualquier empresa, pero igual, estan convencidos que gracias a estos ''avances'' podran usarlos de herramienta o apoyo como si a alguien siquiera le llegara a interesar contratarlos por se ''prompter'' o alguna estupidez del estilo, no, no los van a contratar ni van a hacer dinero, estan en el mismo saco que cualquier persona comun que quiera ganarse la vida sin ser un adinerado de mierda.
Adaptate al mercado socio
No queda otra que adaptarse, no me imagino a los escribas en el siglo XV protestando para frenar a Guttenberg de crear la imprenta, la innovación tecnológica ha acabado con miles de empleos y a la vez ha creado miles de nuevas formas de empleo a lo largo de la historia, no es un fenómeno nuevo, y esa posición anti-IA por la automatización me parece muy hipócrita viniendo de personas que viven precisamente en la era de la automatización, literalmente todos los productos que consumes han sido fabricados mediante esta clase de procesos, es decir, hay empleos que han desaparecido en pos de tu comodidad y la del resto del mundo y a nadie parecía importarle en lo absoluto por que abarata costos y permite mayor acceso a estos, no es sino hasta que la automatización se metió en el sagrado terreno de la ilustración que este debate se abrió.
Realmente es algo que si no se gestiona de forma adecuada es peligroso. Adicionalmente que más puede ocurrir con una IA cuando tenga acceso a armamento, sistemas eléctricos o electrónicos que el gestione?😅
Pues es que ya lo has dicho, así como los forenses se entrenaron para identificar las fotografías editadas con la nueva tecnología de edición cómo fue Photoshop, y también se crearon muchas fotos falsas que crearon Fake news, todo se adapto, así sucederá con las IA's es un proceso de mejora continua en carne viva 🥹🙏
ChatGPT va a reemplazar al Baito?
BaityGPT
12:35 Esto me recordó a Han YuA y a Rozy, de hecho. Son idols coreanas que fueron hechas con IA y tienen muchos fans. La mayoría de sus fotos en Instagram son *bastante* realistas, pero detrás supongo que hay un equipo de sus empresas revisando bien que nada esté fuera de lugar con sus modelos/fotos (¿?). Ni idea de cómo funciona eso, la verdad (aunque lo que se me ocurre es que siguen un sistema como el de los V-Tubers), pero es un dato interesante porque ya existen influencers "artificiales" desde hace varios años. Así que tampoco parece tan improbable que sus modelos lleguen a ser tan realistas dentro de unas décadas que ya no se pueda saber si son humanos o no si no lo avisan de antemano 😅😅😅😅
Edit: Holy fucking shit-, no había visto el Instagram de Han YuA 👁️👁️. Hay unas fotos donde literalmente no puedes ver nada fuera de lo común y sientes que es una persona cualquiera 👀👀👀
¿Sabes lo que eso significa?, que ya nosotros no podremos disfrutar del contenido libre de TV con sus shows ridículos y mierd4s comerciales en internet... Se viene un futuro interesante.
Soy fotógrafo por hobby uno muy amateur se nota jsjs, a mi me gusta trabajar de forma análoga evitando lo digital. Se que es complicado que cualquier industria revire recursos para viejas tecnologías, más viendo que es una lucha constante para ver quién saca el nuevo y mejor software, pero creó que una de las opciones es regresar a este formato por seguridad para evitar falsificación, imposible el evitar el avance de la IA pero creo que trabajar en formatos en los que sea más fácil identificar su manipulación al tener registros físicos de los mismos podría ayudar a contrarrestar parte del los problemas que pueda generar el mal usó de nuevas tecnologías.
Yo tengo una duda... Es cierto que se pueden alterar metadatos... Pero aún así eso deja un rastro de modificación no?
Perdón si la pregunta suena estúpida