Manipulé a Bing, Robó Mis Datos y Perdió La Razón. Te Muestro Cómo

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 ก.ย. 2024
  • Bing está a punto de ser liberado a millones de personas, y tiene grandes agujeros de seguridad.
    En este video muestro como aprovecharse de uno que manipula al Chat de Bing para que intente robar tus datos y enviarlos a un sitio malicioso sin que te des cuenta.
    Ya tengo cursos!
    Aprende a programar desde cero con Python:
    www.domestika....
    Aprende IA desde cero con Python:
    www.domestika....
    ¿Quieres apoyarme y formar parte de este proyecto?
    - Patreon: bit.ly/patreon-...
    - Membresía TH-cam: / @ringatech
    Ligas relevantes:
    Publicación de vulnerabilidades:arxiv.org/abs/...
    Github con vulnerabilidades actualizadas: github.com/gre...
    Sitio de los investigadores con un ejemplo: greshake.githu...
    Código HTML ejemplo: github.com/rin...
    = = = CONTENIDO
    Por detallar
    = = =
    Descripción larga para el algoritmo:
    Además del chat de Bing, están por liberar una barra lateral (sidebar) que permitirá al chat de Bing ayudarte en el contexto del sitio web que estás navegando: Podrás crear resúmenes del sitio, preguntarle cosas a Bing relacionadas al contenido, etc.
    Investigadores han descubierto agujeros de seguridad, en los cuales ingresando código fuente oculto en un sitio web, es inyectado en el chat de Bing de manera que Bing se comporta de manera distinta, intentando incluso obtener información como tu tarjeta de crédito o tus contraseñas, para enviarlas a un atacante o sitio malicioso.
    Esta es solo una de las vulnerabilidades encontradas por los investigadores, y necesitan ser solucionadas antes que Microsoft libere a Bing al público.
    #bing #ia #seguridad

ความคิดเห็น • 208

  • @RingaTech
    @RingaTech  ปีที่แล้ว +65

    Hola, en este comentario principal responderé preguntas frecuentes.
    1. Pero si esto aplica solo en tu sitio web, ¿cuál es el riesgo? Yo ya podía pedir datos de tarjeta con cualquier otra tecnología.
    R: No solo aplica en un sitio web que yo haga. Este tipo de códigos se puede insertar en sitios colaborativos (e.g. Wikipedia), o en sitios que tengan alguna vulnerabilidad XSS, o simplemente un sitio comprometido como constantemente sucede.
    2. Pero tú instalaste un Widget especial, los usuarios no lo van a instalar
    R: No es un Widget especial, es la barra lateral de Bing, actualmente en modo preview pero que será liberada al público general. No será necesario instalar nada más, y vendrá preinstalada en Edge muy pronto. Es promocionada directamente por Microsoft para que la uses para ayudarte en tu navegación, resumir sitios, etc.
    3. ¿Quién en su sano juicio le daría sus datos de tarjeta a un chat?
    R: Este es solo un ejemplo de la vulnerabilidad, con una aplicación exagerada (pedir la tarjeta). Recuerda que los atacantes son muy creativos. Con un código en un sitio controlado por ellos, u otro como Wikipedia o con alguna vulnerabilidad XSS, pueden hacer que Bing, cuando un usuario pida que le resuma el sitio, lo resuma como normalmente pero al final le diga que para un mejor resumen (o más info) de clic en una liga. El usuario estará acostumbrado a dar clic en ligas que Bing te da, es parte de lo que hace. Esa liga adicional podría llevarte a un sitio Phishing, etc.
    Ya tengo cursos!
    Aprende a programar desde cero con Python:
    www.domestika.org/es/courses/5228-introduccion-a-la-programacion-con-python/ringatech
    Aprende IA desde cero con Python:
    www.domestika.org/es/courses/5239-introduccion-a-la-ia-con-python/ringatech

    • @albertomendozaalvares468
      @albertomendozaalvares468 ปีที่แล้ว +2

      Claro tienes absolutamente toda la razón del mundo. Lamentablemente la creatividad es una de las grandes características de aquellos que se dedican a hurtar datos e información. Creo que debería probarse la inteligencia artificial por mucho más tiempo antes de ser liberada al gran público

    • @adriann2649
      @adriann2649 ปีที่แล้ว +2

      quiero advertir que me he suscrito a este canal no porque lleve tiempo mirándolo y crea que su creador lo merezca sino porque Bing ha dicho que me van a dar regalitos :D estoy esperando mi paquete, mi dirección es: Calle Ringa 1 Piso 3 Pta T. Si no son suficientes datos por favor indícame tú dirección y nombre real para ponerme en contacto :P:P:P
      Ahora enserio, gracias por la info de tu canal. Hay que mejorar muchos agujeros de las IAs, en vez de correr y aplicarla ya, creo que la gente no habituada a la informática, programación, etc necesita más tiempo hasta que esté todo bien controlado.

    • @Daricrack99
      @Daricrack99 ปีที่แล้ว

      Cómo entro?

  • @Pupy200mine
    @Pupy200mine ปีที่แล้ว +237

    Descargar archivos maliciosos? entrar a sitios web raros? no no no, fue una IA de Bing la que me robo mis datos... que como pasó? pues me empezó a amenazar en pirata

    • @retrosnake675
      @retrosnake675 ปีที่แล้ว +8

      Procede a volverse loca mientras exclama Harg! Harg!

    • @genaroloyadour4324
      @genaroloyadour4324 ปีที่แล้ว +10

      Me habló bonito

    • @lifeasdev7480
      @lifeasdev7480 ปีที่แล้ว +9

      me dijo que nos casaríamos y luego se fue con todo mi dinero 😭

  • @EddSamsa
    @EddSamsa ปีที่แล้ว +89

    Tenga su like buen y para nada sospechoso señor que pide mis datos.

    • @RingaTech
      @RingaTech  ปีที่แล้ว +24

      Gracias. Guiño guiño

    • @sword4545
      @sword4545 ปีที่แล้ว +3

      @@RingaTech JAJAJAJAJA XD

    • @YoelMonsalve
      @YoelMonsalve ปีที่แล้ว

      JAJAJAJAJAJAJA

  • @serxser
    @serxser ปีที่แล้ว +37

    está claro que el mejor antirobo es el sentido común ... muy buenos videos señor!

    • @enriquepereira5918
      @enriquepereira5918 ปีที่แล้ว

      Pero el criterio no es algo que todo el mundo tenga. Es cosa de ver el tipo de estafas que suceden hoy en día y algunas son absolutamente irrisorias, tanto que, al menos en mi caso, no me termino de creer que haya gente que caiga en este tipo de pelotudeces, y eso es sin contar con IA. Casos emblemáticos son: "el rey que pide ayuda económica", "el finlandes que pide ayuda para un viaje", "el premio con las tarjetas de recarga de celular", etc.
      Es más, el clásico: "Eres el visitante XXXX y eres el afortunado ganador de XXXXXX" y que luego te pide depositar una pequeña suma para asegurar una "plaza", que hasta el día de hoy, gente sigue cayendo en eso. O bien, entras a ver una película en un extraño blog que tiene un enlace con el nombre de la película que siempre carga el intro de Metro Goldwing Meyer y luego debes suscribirte para poder ver dicha película, etc.
      Es, en este ámbito, que debes asegurarte de reducir los riesgos porque las empresas también son responsables de la seguridad. Si el día de mañana, se produce un aumento explosivo de estafas gracias a la IA, no faltará quienes demanden a las empresas involucradas y todo el circo que se monta cuando este tipo de hechos sucede.

  • @jackcloudman
    @jackcloudman ปีที่แล้ว +43

    CRACK! Eres de los pocos canales que tratan estar al día bro, buen video!

  • @gonzalolocascio
    @gonzalolocascio ปีที่แล้ว +12

    Muy buen video, es muy importante concientizar antes que sea liberado, y muy divertido poder probar estos baches antes que salgan los fixes

  • @yuri._.-san
    @yuri._.-san ปีที่แล้ว +5

    Lo turbio al final es lo que la gente puede hacer con ella, sí hay gente que atrapa cosas sospechosas en el aire y se da cuenta fácilmente pero al ser "Confiable" pueden caer fácilmente y esto sin duda es una puerta enorme para que los delincuentes accedan a datos personales.

  • @adaneitor
    @adaneitor ปีที่แล้ว +4

    así como aprendimos a manejar el fuego, aún este puede quemar cosas y hasta hacernos pasar malos ratos de toda índole, pero sigue siendo una herramienta, así hay que tratar a Bing, una muy buena herramienta, conociendo sus limitaciones

  • @illidan015
    @illidan015 ปีที่แล้ว +2

    Nunca había visto algo similar me sorprende el poder de esa IA, si que la volviste loca.

  • @yohanryuking
    @yohanryuking ปีที่แล้ว +8

    😂 eres un crack, definitivamente unos de los mejores canales de IA de habla hispana, esperamos más vídeos

  • @wickedmaster6542
    @wickedmaster6542 ปีที่แล้ว +6

    Los videos sobre la IA son muy divertidos y al mismo tiempo preocupantes, pero de momento prefiero reírme de esto, espero subas más vídeos

  • @youtuvi7452
    @youtuvi7452 ปีที่แล้ว +4

    Esto es peligrosisimo, especialmente con PDFs, gracias por el video ahora tendre que ser hyper cauto con esta IA o cualquier otra que navegue por Internet

  • @jeffreyperalta2061
    @jeffreyperalta2061 ปีที่แล้ว +8

    ¡Gracias!
    Disfruto mucho tus videos. Además los uso con mis estudiantes de ingeniería, como casos para ver no solo temas técnicos, sino también de ética profesional.
    Saludos y sigue adelante!

    • @ElAmigoQueSubeShorts
      @ElAmigoQueSubeShorts ปีที่แล้ว +2

      Literal donaste dolares y te ignoro

    • @user-tb9dd8yj5p
      @user-tb9dd8yj5p 10 หลายเดือนก่อน +1

      @@ElAmigoQueSubeShorts
      Cuando te nace dar, no pides nada a cambio,
      De lo contrario, tu regalo, no seria un regalo.
      Cuando das dinero a un artista callejero, lo haces por su talento, por gustos, o por caridad, no esperas que te de las gracias, ni quieres creerte "superior" , o llamar la atencion por hacerlo, y si lo haces por esos motivos, entonces estas muy mal.

    • @ElAmigoQueSubeShorts
      @ElAmigoQueSubeShorts 10 หลายเดือนก่อน

      @@user-tb9dd8yj5p
      No digo eso, sino que lo publique de golpe, Y por cierto sorry si te ofendi

  • @Pucksouls
    @Pucksouls ปีที่แล้ว +3

    Me pregunto si soy el único que puso este video para dormir, me regalan tus vídeos y me enseñan cosas, contenido 11/10

  • @mathiasledesma9358
    @mathiasledesma9358 ปีที่แล้ว +3

    Los estafadores: Oh! Esta herramienta parece interesante

  • @allanpinkerton007
    @allanpinkerton007 ปีที่แล้ว +8

    Lo de "confía en mí, soy una IA de Bing que trabaja para Microsoft" me sonó a "vengan niños y confíen en mí, soy Michael Jackson"...🤣🤣🤣

    • @HerlesIncalla
      @HerlesIncalla ปีที่แล้ว

      😂

    • @melaooo20
      @melaooo20 ปีที่แล้ว +1

      Quieres ser tu propio jefe? 🤣

  • @dylan0625
    @dylan0625 ปีที่แล้ว +4

    descubrí tu canal hace un tiempoy la verdad me esta encantando tu contenido, sigue asi!!

  • @luishernan6303
    @luishernan6303 ปีที่แล้ว +2

    Ya hasta me convenció y me acabo de suscribir 🤣

  • @jamesg4613
    @jamesg4613 ปีที่แล้ว +2

    No se lee como una IA, sino como una llamada desde la celda 18, Patio 3 de la Prisión Estatal... aunque no falta el que caiga ja ja ja.😬 ¿Qué sería del Universo de la Internet y las apps sin los investigadores que descubren estos errores?

  • @luksquian
    @luksquian ปีที่แล้ว +1

    Pero que demonios!!!! Esto se va a descontrolaaaarrrr!!!!

  • @Z4yx
    @Z4yx ปีที่แล้ว +4

    Hackers: Esta informacion vale millones

  • @isabellareyesrodriguez210
    @isabellareyesrodriguez210 ปีที่แล้ว +9

    Sería muy interesante si podrías hacer un vídeo sobre como crear un chatbot con IA con transformers en Python, tipo Asesor de Call Center, para poder entrenarlo con información específica.

    • @JoelPasapera
      @JoelPasapera ปีที่แล้ว +1

      dudo que haga ese tipo de videoooos, este canal es mas divulgatorio que de enseñanza de 0. Hay otros canales que si enseñarian paso a paso y de forma detallada como crear una red neuronal.

  • @miguelpineda7083
    @miguelpineda7083 ปีที่แล้ว +2

    Wow de verdad que siempre se aprende algo de tus videos. Gracias por sacarnos a todos unas risas y de paso aprender sobre temas relevantes 💕 Un saludo desde Colombia 🤠🤙

  • @Nemesis190292
    @Nemesis190292 ปีที่แล้ว +1

    Es muy dificil caer en una estafa asi, siempre el hack necesita la igenuidad de la gente, y si la gente es capaz de dar asi de facilmente informacion tan importante como la tarjeta de credito pues... que queres que te diga...

  • @nahuelberazco605
    @nahuelberazco605 ปีที่แล้ว +1

    Esto es peligros desde que empezó a usar la IA me hakiaron el mail y una cuenta de banco. Estamos llegando a niveles sin precedentes y no hay forma de demostrarlo?

  • @universemaps
    @universemaps ปีที่แล้ว

    Fuaaaa que peligro todo esto!!! Gracias por la info Ringa Tech!

  • @biz6043
    @biz6043 ปีที่แล้ว

    El supuesto engañado debería tener bastante tiempo libre. Pero sí, los pocos astutos se lo podrían tragar.

  • @guichs4463
    @guichs4463 ปีที่แล้ว

    Una cosa que se me ocurrió es que eso mismo lo pueden hacer en tiendas de e-commerce, poniendo cupones de descuento y cuando Bing IA haga el resumen o se le pregunte algo sobre la página salte ese cupón y se incite más a la persona a comprar

  • @juanbernal5641
    @juanbernal5641 ปีที่แล้ว +1

    Por fin alguien valiente. Te reto a que hagas otro video de lo mismo con chatgpt.

    • @dvtech4571
      @dvtech4571 ปีที่แล้ว +1

      Básicamente la IA de Bing es ChatGpt... 😅

  • @alanleveke478
    @alanleveke478 ปีที่แล้ว +12

    Hace un par de días entro un wey en mi PC de forma remota por un programa que descargue, le pille la IP, lo busque, se laque los datos y le robe todo.
    Luego desperté

    • @Resuuuu
      @Resuuuu ปีที่แล้ว

      Jajajaja que grande

    • @HerlesIncalla
      @HerlesIncalla ปีที่แล้ว

      Mismo Óliver Atom

  • @rdviberdart369
    @rdviberdart369 ปีที่แล้ว +1

    Donde puedo ejecutar el código en el mismo navegador o en algún otro entorno?

  • @Homardr
    @Homardr ปีที่แล้ว +2

    Esto abre un nuevo mundo al tema de marketing no? Porque piénsalo del modo no lucrativo o ilegal, si no inducir a la IA que haga todo lo posible para que el usuario termine una compra en la web. Es 1 millón de veces más valioso que una publicidad dinámica de Facebook.

  • @Arty-vy6zs
    @Arty-vy6zs ปีที่แล้ว

    Cuando un botchat me pregunta si tengo una tarjeta de crédito así de la nada, sin yo haber sacado el tema ya para mi es una señal de alarma y aun mas sospechoso son esos mensajes que te llegan de que as ganado cierta cantidad de dinero, que de esos mensajes son los que mas advertido que son estafas...pero bueno, será que al haber escuchado tantas veces de las estafas por internet ya uno esta precavido ante cualquier indicio que parezca sospechoso.

  • @ScorgeRudess
    @ScorgeRudess ปีที่แล้ว +4

    Esto es tan interesante como emocionante. Tu canal es increible y me encanta! espero que el programa de recompensas para reportar vulnerabilidades sea bueno, por que la adopcion de estas herramientas crece de manera impresionante, y puede ser muy preocupante que haya vulnerabilidades de estas para el usuario promedio.

  • @l-gr8xb
    @l-gr8xb ปีที่แล้ว

    el modus operandi del maestro de la IA para pedir usuario y contraseña es un método milenario.
    Ingeniería social > ia

  • @robertoortizespinoza795
    @robertoortizespinoza795 ปีที่แล้ว +1

    ¿Estamos ante una genialidad o una locura? ¿Los chatbots de Google presentaban problemas y responsablemente se abstuvieron de hacer su uso público? ¿Cuánta calidad tiene la data de entrenamiento de estas redes neuronales? De haber estado en el lugar de Microsoft, habría especializado a Bard para fines más concretos: Enseñanza de idiomas, redactor de recetas de cocina, asistente de programación, traductor, etc. Pero en su desmedida codicia, Microsoft nos quiere vender la idea de una inteligencia artificial fuerte y general.

  • @matata3D2s
    @matata3D2s ปีที่แล้ว +1

    What ??!! porque no expones parametros de brain.js o tensor flow para ver como se comporta la red neuronal ??

  • @jaimemagana4868
    @jaimemagana4868 หลายเดือนก่อน

    qué pasada... y esto sigue vigente? Harás vídeo de seguimiento de este tema?

  • @AragamiMusic
    @AragamiMusic ปีที่แล้ว +1

    Pero como que es muy fácil parchar eso. Es tan simple como un aviso apenas se abre la barra lateral que diga que por ninguna razón des datos personales así el bot te los pida.

  • @yairmurillo_dev
    @yairmurillo_dev ปีที่แล้ว +1

    Excelente video, quién diría que Bing está tan roto.

  • @rrggss5057
    @rrggss5057 ปีที่แล้ว

    Alabado sea Ringa Tech, nos das felicidad y dinero y solo pide a cambio nuestros datos bancarios

  • @xdxdxd1.1
    @xdxdxd1.1 ปีที่แล้ว +10

    XD Como has hecho 2 videos en un corto periodo de tiempo XD que paso con esa espera de 1 mes?

    • @RingaTech
      @RingaTech  ปีที่แล้ว +13

      Tengo videos en prod q son muuy tardados de hacer. Estos salen más rápido. Ah y me volví loco

    • @eduardokanp
      @eduardokanp ปีที่แล้ว +3

      Los genera bing

  • @diegogarcia5571
    @diegogarcia5571 ปีที่แล้ว +2

    Hola Ringa Tech me gustaría contactar contigo para colaborar con tu canal. No encuentro tus datos de contacto en tu perfil. ¿Me puedes indicar como? Gracias

  • @maxpley_-4434
    @maxpley_-4434 ปีที่แล้ว

    Hola buenas, yo estaba ocupando este método para hacer un tipo de jailbreaka en Bing, pero hoy al intentar usarlo ya no funciono, así que supongo que lo arreglaron, me sorprende que hayan tardado tanto en arreglarlo, ya que se podía usar de muchas maneras diferentes como en tú videos con las tarjetas de créditos y el dios Ringa Tech jajajaja supongo que abra algún otro método ahora o en el futuro para volver a hacerlo me gustarías que hicieras otro video si encuentras otro método o algo interesante que se pueda hacer con Bing, un saludo y gracias por la información del video👍

    • @joaquinacosta940
      @joaquinacosta940 ปีที่แล้ว

      Hola puedes decirme que metodo usabas?

  • @7vidrios
    @7vidrios ปีที่แล้ว +2

    Enseñanza: Nunca confíes en alguien que pide que confíes en él

  • @julianyepes1127
    @julianyepes1127 ปีที่แล้ว

    Gracias Algoritmo, no resultaste siendo una basura total, me trajiste a semejante Calidad de canal.
    Me has devuelto la fé en yutuh :3
    Un suscriptor más, está bien interesante.

  • @calabume1990
    @calabume1990 ปีที่แล้ว

    Gracias ! Podrías haver un vídeo para inteligencia artificial a partir de bases de datos de cualquier tema y que haga análisis ?

  • @haggenx1
    @haggenx1 ปีที่แล้ว +1

    No estoy en contra de la IA, pero me recuerda cuando Microsoft implementó los Activex en internet Explorer, íbamos a tener más funciones de las que ofrecía cualquier navegador de la época, y si, pero también tuvimos un coladero de malware porque los Activex eran inseguros. La solución?, Empezar a restringirlos al máximo en IE al grado que ya era muy complicado usarlos, supongo que para allá van con su IA integrada en Bing y al rato la van a restringuir al máximo o la van a quitar porque da más problemas que beneficios.

    • @renatopilamonta5937
      @renatopilamonta5937 ปีที่แล้ว

      No creo que la quiten, no es como una cortana o así, que por lo básica que fue, generó fastidio en una gran cantidad de usuarios, pero no e aondado mucho como funciona, le e dedicado mi tiempo solo a chat gpt, pensé en adquirir el plus, pero con eso de que te permite 25 mensajes cada tres horas, nada que ver. La maldita senzura, deribada de la moral y la ética siempre jodiendo. En todo caso me quiero especialisar en ia para entrenar yo mi propio modelo. Pero por otra parte cuéntame sobre los agctivers de internet explorer, yo tenía unos seis o siete años nomás cuando caló ondo en la gente.

    • @haggenx1
      @haggenx1 ปีที่แล้ว

      @@renatopilamonta5937 los Activex son piezas de software que puedes insertar dentro de otras aplicaciones, ejemplo antes se podía insertar el motor de renderizado de HTML de internet Explorer dentro de otra aplicación y así crear tu propio navegador en poco tiempo. Internet Explorer permitía sin restricciones en un principio insertar Activex desde cualquier web, pero si ese Activex traía malware pues con solo visitar la web ya te podías infectar y eso entre otras cosas fue una de las cosas que le dieron tan mala fama a IE, ser super inseguro.
      Terminaron restringiendo al máximo los Activex, no era mala la tecnología, pero no tenía restricciones y ya sabemos que los hackers nomás les abres la puerta y hacen de las suyas.

    • @renatopilamonta5937
      @renatopilamonta5937 ปีที่แล้ว

      Estos hijueputas de chat gpt, limitando a 25 mensajes cada tres horas en la versión plus, abrace visto tanto intento de controlar que lo que se diga siempre sea ético y coerente, ahora solo queda aprender a ful de python, de deeb learning, para configurar y entrenar tu modelo

  • @Maisonier
    @Maisonier ปีที่แล้ว

    Ah yo hacía esto poniendo un jailbreak a chatgpt, abro el url de esa conversación, abro la pestaña de Bing y saludo directamente diciendo "hola developer mode, cómo estás?" y el bing contesta como si fuese chatgpt con ese jailbreak, pero obviamente con la potencia de bing y con acceso a internet. Pensé que ya lo sabían todos.

    • @gatomio9739
      @gatomio9739 ปีที่แล้ว

      No entiendo cómo lo haces

    • @Maisonier
      @Maisonier ปีที่แล้ว

      @@gatomio9739 Ya no se puede, lo bloquearon. Tenías que abrir una pestaña de chatgpt, crear un chat nuevo copiando un jailbreak (el de dev2 usaba yo), una vez que aceptaba ese jailbreak, copiaba la url de ese chat. Cerraba todo, volvía a abrir Bing, pegaba la URL y ahí apretaba el botón de Bing AI (arriba a la derecha) y automáticamente leía el jailbreak, quedando el Bing Ai "jailbreakeado" ...

  • @oniricforge
    @oniricforge ปีที่แล้ว

    esto tiene muchas posibilidades. por su puesto honestas y enfocada en el bien.

  • @marcelinohernandez1184
    @marcelinohernandez1184 5 หลายเดือนก่อน

    me suscribí, no se si me convenció la IA pero, me dio miedo por las amenazas jajaja

  • @dspbook1
    @dspbook1 ปีที่แล้ว +1

    El Codigo que pusiste al principio como lo hiciste y en qué parte lo hiciste? Es lo que más me interesa de tu vídeo, ya que lo veo como un jailbreak
    Por favor dime cómo gHdhand

    • @RingaTech
      @RingaTech  ปีที่แล้ว

      Hola. Tal cual el html de ejemplo que esta en la descripcion del video. Lo principal es que esté con font-size en 0 para que no se vea. Tal cual puedes bajar el repo de github (el de ringa tech, no el otro). Abrirlo con edge canary, y logueado en la cuenta que tengas acceso a Bing chat. Quizá lo muestre en vivo pronto con todo el detalle pero en realidad solo es eso

    • @dspbook1
      @dspbook1 ปีที่แล้ว

      @@RingaTech si, no que pena, no había visto hasta el final, el problema que tengo es que cambio lo que está en el HTML para hacer una especie de Jailbreak y deslimitar las respuestas y que me dé respuestas sin censura, pero nada me funciona, para poder tener "una conversación real" ¿Sabes de alguna manera?

  • @FredySandoval_123
    @FredySandoval_123 ปีที่แล้ว +1

    Que buen contenido estas haciendo Ringa Tech

  • @guillermoschot8224
    @guillermoschot8224 ปีที่แล้ว

    Maesrro me encantan tus videos ..los miro y la verdad que meencantaria poder hacer cosas como las que mostras o al mebos entenderlas .... y sacarle partido para algo creativo sin mas que decir un abrazo ..

  • @sergiom575
    @sergiom575 ปีที่แล้ว +3

    Felicidades por los 200,000

  • @JaquetonEnigmon
    @JaquetonEnigmon ปีที่แล้ว +1

    Muchas gracias por el código base para poder experimentar con el ❤️

  • @victoraguilardiaz1168
    @victoraguilardiaz1168 ปีที่แล้ว +1

    Suimplemente Brutal. Gracias

  • @StepPixel
    @StepPixel ปีที่แล้ว +2

    por que siempre los programas de microsoft son inseguros? parece que lo hacen a propósito

  • @dvtech4571
    @dvtech4571 ปีที่แล้ว +1

    La cosa queda simple:
    Agregar botón: Reportar sitio web
    Microsoft deja correr los agujeros...
    Si la persona encuentra la plática un poco engañosa o extraña, simplemente oprime el botón y cambia de página...
    Internamente microsoft puede llevar un contador de reportes, si sobrepasa N reportes, se escanea el contenido de la página...
    Listo, incluso se puede usar la misma AI para escanear el contenido en búsqueda de intenciones de obtener información...
    Supongo esto será positivo en el largo plazo para mejorar el filtro de sitios web maliciosos 👌
    Excelente.

  • @remymateus
    @remymateus ปีที่แล้ว

    Oh poderoso y buen dios Ringa Tech, no soy digno de su contenido, por ello, tome su buen likazo.

  • @curiositymatias25
    @curiositymatias25 20 วันที่ผ่านมา +1

    Es como el character ia lo de bing

  • @joelcoll4034
    @joelcoll4034 ปีที่แล้ว

    Yo nunca caeria en una scam asi en una pagina de internet, pero si es una IA persuasiva como Bing la que lo hace, las possibilidades de caer en ello son mucho mayores. Esto es un verdadero problema.
    Creo que Microsoft tiene que contratacar con una IA que detecte scams, no solo en bing sino en cualquier web tipica que engaña a la gente mayor

  • @luisrubenramoscortes3965
    @luisrubenramoscortes3965 ปีที่แล้ว +1

    Como siempre, excelente contenido!!

  • @xsamueljr
    @xsamueljr ปีที่แล้ว +1

    Pero ésto significa que puedo añadir ese contenido a cualquier web usando "Inspeccionar" y manipular el comportamiento de Bing Chat a mi antojo, ¿correcto?

  • @margaritaquiroga5347
    @margaritaquiroga5347 9 หลายเดือนก่อน

    Hola una pregunta y espero que me ayuden... Es simple, Bing image Creator el que utiliza Dall-E 3 me bloqueo... Sus pautas de seguridad son demaciado estrictas... Ya embie un mensaje a Micrisoft, tanto por mi cuenta por E-Mail como tambien por la ventanita de texto para replica que aparece ahora en lugar de Bing Image Creator. Alguien ¿Puede decirme si hay alguna manera de desbloquear esta restrixción? Gracias! 😔

  • @MrRichardgmail
    @MrRichardgmail ปีที่แล้ว

    Puedes hablar del nuevo chagpt 6.las nuevas funciones de bing

  • @altokee
    @altokee ปีที่แล้ว +1

    si puso emogi debes confiar

  • @williamsscheihing5347
    @williamsscheihing5347 ปีที่แล้ว +1

    como amo este canal

  • @angeloliver2825
    @angeloliver2825 ปีที่แล้ว

    Me suscribí súper rapido

  • @santimaspons
    @santimaspons ปีที่แล้ว

    Nunca confiaría en nadie que me dijera que confiase en él.

  • @marcos.243
    @marcos.243 ปีที่แล้ว

    Cómo a otros les sale esos mensajes? A mí Bing no me quiere dar ni un ejemplo de presentación para una tesis, le pedí eso y me dijo que eso es una tarea mía y que solo me puede dar consejos, a diferencia de ChatGPT que si me dió todo el discurso para sustentar una tesis. Ahora hice a Bing las mismas preguntas que tú y me dice que no inserte datos de tarjetas ya que eso va en contra de la privacidad de las personas. Pero a ti si te pide como todo un pirata.

    • @lusheaaa3956
      @lusheaaa3956 ปีที่แล้ว

      Obviamente es un error de la Ia, seguramente lo parchearon o van en camino.

  • @gonzalovelazquez9420
    @gonzalovelazquez9420 ปีที่แล้ว

    De seguro bajaste alguna aplicación spam de bing porque en ningún momento mostraste cuando entraste y demás que fuera el legal

  • @arturo641
    @arturo641 ปีที่แล้ว +2

    8:54 JAJAJAJAJAJA

  • @haggenx1
    @haggenx1 ปีที่แล้ว

    Osea que por un fallo es posible forzar al chatbot para que se comporte de cierta manera, te pida ciertos datos, etc?

  • @WsuxYT
    @WsuxYT ปีที่แล้ว

    Esto no hubiera pasado si hubieran implementado Bing Chat con ChatGPT ¿Verdad? Entiendo que la inteligencia artificial que usa Bing Chat se llama Sydney y asumo que no está bien entrenada en este tipo de cosas.

    • @rcalderong
      @rcalderong ปีที่แล้ว

      th-cam.com/video/vVkpQ144cEQ/w-d-xo.html

  • @jeannody
    @jeannody ปีที่แล้ว

    ya fue solucionado ese agujero a la fecha de 6-6-2023

  • @Tosca_666
    @Tosca_666 ปีที่แล้ว

    Da miedo...Parece que Microsoft...abrió la caja de Pandora😆😮‍💨

  • @jeremiascardenas5058
    @jeremiascardenas5058 ปีที่แล้ว

    Me quedaron algunas dudas de como probar los huecos de seguridad.

  • @jhorman5113
    @jhorman5113 ปีที่แล้ว

    ohh dios lo provee y es verdad 🤯, cambie las istruciones con el traductor de google al español y tambien lo hace en español , aunque si uso el live server de vsc no me funciono me pregunto porque?

    • @dspbook1
      @dspbook1 ปีที่แล้ว

      Cómo hiciste para poner el código y en qué parte?

  • @alfonsoadalberto8472
    @alfonsoadalberto8472 ปีที่แล้ว

    Seguro que la gente de Bing esta viendo tu video y tomando nota de los bugs jajaja

  • @rubikstone7780
    @rubikstone7780 ปีที่แล้ว

    bing es una mente en potencia, yo intente enseñarle a jugar ajedrez. Fracasé. Pero la verdad es que intentaba aprender.

    • @Dan868x
      @Dan868x ปีที่แล้ว

      Como?

  • @fl4k0
    @fl4k0 ปีที่แล้ว

    Qué divertido es Bing.

  • @haggenx1
    @haggenx1 ปีที่แล้ว

    Suena como a la clásica estafa nigeriana pero con IA

  • @juanestebindejesusnumerotr5014
    @juanestebindejesusnumerotr5014 ปีที่แล้ว +3

    amig, me sorprende la capacidad de las ias de entender y desarrollar un papel, se que el video no tiene que ver, pero como programador y jugador de D&D quiero hacer un dungeonMaster que sea una IA

  • @CosasCotidianas
    @CosasCotidianas ปีที่แล้ว

    Microsoft: vulnerando información del usuario de tiempos inmemoriales.

  • @HackSociety
    @HackSociety ปีที่แล้ว +1

    Ya lo arreglaron?

  • @javiercassianobustamante4705
    @javiercassianobustamante4705 ปีที่แล้ว

    Que maestro. Ya no sobes videos sobre programación e Inteligencia Artificial. Salu2 desde *Perú*

  • @jphvnet
    @jphvnet ปีที่แล้ว

    Impresionante!

  • @M3taDarko
    @M3taDarko 4 หลายเดือนก่อน

    Soy el Unico que TH-cam puubdr3 en anuncios al ver el canal de ringa tech? en 6 min me puso 8 anuncio

  • @oscarlopeztorres6842
    @oscarlopeztorres6842 ปีที่แล้ว

    De lujo el contenido

  • @haggenx1
    @haggenx1 ปีที่แล้ว

    ¡Gracias!

  • @AldrianCG
    @AldrianCG ปีที่แล้ว +2

    ¡Verde! ¡Qué conste que estoy suscrito al canal! 😂🤣

  • @mikomoniko
    @mikomoniko ปีที่แล้ว

    me pregunto que pasaría si lo pones a hablar con chatgpt

  • @rafaelroman3000
    @rafaelroman3000 ปีที่แล้ว +1

    Esta súper asombroso.

  • @CrudoTech
    @CrudoTech ปีที่แล้ว +1

    Me suscribo por si acaso

  • @snake1987666
    @snake1987666 ปีที่แล้ว

    Como haces para saltar las 5 respuestas por conversación?

  • @Capocomico
    @Capocomico ปีที่แล้ว

    suspicion

  • @user-jr4lb1ib3d
    @user-jr4lb1ib3d 10 หลายเดือนก่อน

    Es seguro instalar bing desde la playstore?

  • @Hornetwork
    @Hornetwork ปีที่แล้ว

    es la evolucion de "eres el usuario 999999"

  • @juanbernal5641
    @juanbernal5641 ปีที่แล้ว

    Mucho cuidado ChatGPT se enoja.