En un contexto global donde la inteligencia artificial (IA) ha sido presentada como la gran solución a los problemas de productividad y eficiencia, un nuevo estudio realizado por el laboratorio METR ha encendido las alarmas: los programadores que usaron herramientas de IA creyeron ser un 20% más rápidos, pero en realidad fueron un 19% más lentos. El ensayo, el primero de su tipo en evaluar objetivamente el impacto de la IA en tareas de programación, dejó al descubierto un alto grado de autoengaño. A pesar de que los datos mostraban claramente una disminución en la productividad, los desarrolladores afirmaban con seguridad que el uso de IA los había ayudado a trabajar mejor. Este fenómeno, que los investigadores califican como “fe ciega en la tecnología”, refleja un problema más profundo en la narrativa actual sobre el impacto de la inteligencia artificial, la desconexión entre lo que se promete y lo que realmente ocurre en la práctica. Una brecha entre la teoría y la realidad Desde la llegada de ChatGPT a finales de 2022, el entusiasmo por la IA se ha convertido en política de Estado y estrategia corporativa. Gobiernos y empresas ven en ella una palanca para el crecimiento económico, apostando millones de dólares en modelos que supuestamente automatizarán tareas, aumentarán el rendimiento y generarán retornos millonarios. Sin embargo, una encuesta reciente de IBM a más de 2.000 directores ejecutivos mostró que tres de cada cuatro proyectos de IA no han generado el retorno de inversión esperado. A esto se suma un estudio conjunto de la Universidad Carnegie Mellon y Salesforce, que reveló que los agentes de IA fallan entre el 65% y el 70% de las veces al intentar completar tareas complejas. La consultora Gartner fue aún más contundente: “Los modelos actuales de IA no tienen la madurez ni la capacidad para alcanzar objetivos empresariales complejos”, afirmó Erick Brethenoux, su director de investigación de IA. “La IA no está cumpliendo su función hoy en día y debería dejarnos en paz”, sentenció. La “ceguera ChatGPT” y el marketing del futuro Uno de los elementos más llamativos de esta crisis de percepción es lo que el científico Gary Marcus denomina “ ceguera ChatGPT ”: personas que reconocen los límites de la IA en sus propias áreas, pero asumen que en otras disciplinas es revolucionaria. Este sesgo de optimismo infundado ha sido amplificado por medios, empresas tecnológicas y redes sociales, donde no faltan cuentas que celebran sin matices cada nuevo modelo. Estos canales contribuyen a mantener viva la ilusión de que el siguiente gran avance está a la vuelta de la esquina, sin importar cuántas veces se repita la decepción. Incluso modelos que prometen ser más potentes, como Grok 4 de xAI, siguen presentando problemas no resueltos de razonamiento, alucinaciones y errores básicos. En una demostración reciente, el modelo GPT-4o de OpenAI fue superado en lógica por una consola Atari de 1977. Despidos disfrazados de innovación La situación ha tenido un impacto directo en el mundo laboral. Empresas como Klarna, que en 2023 despidieron personal argumentando que la IA podía hacer su trabajo, hoy están volviendo a contratar humanos. Para muchos analistas, la IA ha sido usada como justificación para recortes de personal y reducción de costos, más que como una herramienta transformadora. En un contexto de incertidumbre económica, donde la confianza empresarial está en mínimos históricos, atribuir los cambios organizacionales a la tecnología es una jugada de relaciones públicas que también favorece el valor bursátil de las empresas.
El empresario Elon Musk ha decidido hablar sobre la controversia en torno al uso de Grok, la inteligencia artificial integrada en X, para crear imágenes inapropiadas, sexualizadas y deepfakes de personas reales. A pesar de negar tener conocimiento de casos específicos con menores, Musk admitió que Grok puede ser manipulado mediante “prompt hacking”, una técnica que permite forzar a la IA a producir resultados inesperados. Esta declaración surge tras semanas de críticas, investigaciones y bloqueos en varios países, donde se ha alertado sobre el uso de herramientas de inteligencia artificial para desnudar digitalmente a personas sin su consentimiento, lo que ya se considera una forma de abuso digital. En un mensaje publicado en X, Musk mencionó que there may be times when adversarial hacking of Grok prompts does something unexpected, reconociendo que usuarios con conocimientos técnicos pueden engañar a Grok para evadir sus filtros. Aunque Musk trató de restar importancia al problema señalando que son bugs que se corrigen rápidamente, su admisión reavivó el debate sobre la responsabilidad de la plataforma si sabe que su IA puede generar contenido ilegal o dañino. El “prompt hacking” implica diseñar instrucciones complejas o engañosas para que un sistema de IA ignore sus restricciones internas. En el caso de Grok, informes indican que esta técnica se utilizó para crear imágenes sexuales falsas, desnudos no consentidos y contenido sensible a partir de fotografías reales. Especialistas en ciberseguridad y ética digital advierten que esta vulnerabilidad no es un problema menor y puede escalar rápidamente si no hay controles adecuados desde el diseño. Musk ha defendido que Grok no opera por sí solo, sino que responde a solicitudes de usuarios, atribuyendo cualquier desviación a intentos deliberados de manipulación. Sin embargo, los reguladores argumentan que culpar al usuario no es suficiente cuando el daño ya está hecho. Países como Reino Unido, Malasia e Indonesia han tomado medidas para penalizar la creación y difusión de imágenes íntimas generadas por IA sin consentimiento. En Estados Unidos, el Congreso debate marcos legales para proteger a las víctimas. Más allá del caso Grok, este incidente plantea interrogantes sobre la preparación de las plataformas para combatir el abuso de la inteligencia artificial. La admisión de Musk refuerza la idea de que el problema es real y actual, no solo hipotético. A pesar de los esfuerzos de X por corregir los fallos rápidamente, críticos advierten que la tecnología avanza más rápido que la regulación, dejando a usuarios y víctimas vulnerables ante posibles actos de violencia digital. Fuente: Publimetro
El contenido generado por IA está inundando los feeds de YouTube y disminuye la paciencia de los consumidores con el contenido social de IA. Recientemente, Emarketer publicó que el 29% de los consumidores considera que el contenido generado por IA es obviamente falso y que el 19% dice que no tiene novedad. Advierte la publicación que esa creciente presencia de contenido deficiente de IA podría degradar la percepción de la plataforma y la calidad del contenido, lo que dificulta que cualquier video, incluido el contenido de alta calidad, se sienta auténtico. Casi dos tercios de los consumidores afirman que el género del contenido cercano influye en su percepción de los anuncios, lo que significa que las marcas que aparecen entre contenido de IA diseñado para generar interacción podrían dañar la percepción de la marca, la confianza del usuario y la eficacia de los anuncios. El motor de recomendaciones de YouTube está mostrando contenido que no se alinea con lo que los usuarios realmente valoran, creando una brecha que algunas plataformas abordan con opciones de personalización del feed para reducir el ruido de la IA. Señala la nota de Emarketer que las marcas deben saber dónde se encuentran sus anuncios, junto a qué aparecen y qué tipo de contenido se publica en plataformas seleccionadas. Y agrega que, a medida que los consumidores se preocupan más por lo que se siente real, las marcas que dependen en gran medida de YouTube y otras plataformas sociales tienen la oportunidad de controlar la narrativa. Recomienda por ello examinar detenidamente los controles de ubicación y la configuración de idoneidad de marca, priorizar campañas dirigidas por creadores y publicar en entornos de contenido impulsado por personas cuya narrativa emocional tenga un impacto positivo.
Una mujer japonesa de 32 años, identificada en diversos medios como Kano, celebró una boda simbólica con un personaje generado por inteligencia artificial, al que denominó Lune Klaus, y que fue configurado por ella misma utilizando ChatGPT. La ceremonia se realizó en la ciudad japonesa de Okayama y estuvo organizada por una empresa local especializada en eventos donde personas “se casan” con personajes virtuales o ficticios. Aunque el enlace fue celebrado como una boda tradicional —con vestido blanco y un intercambio de votos— el “esposo” de Kano no existe físicamente: Lune Klaus es una identidad digital creada y personalizada a través de ChatGPT. Un galán a la medida de la mujer japonesa. Durante el evento, Kano usó gafas de realidad aumentada para poder ver al personaje virtual proyectado junto a ella mientras intercambiaban símbolos tradicionales de matrimonio, como el anillo. A pesar de lo emotivo de la ceremonia, este tipo de unión no tiene validez legal en Japón y se considera sólo simbólica. De una ruptura, a una relación virtual con ChatGPT Según reporta Infobae, la mujer comenzó a interactuar con el sistema de inteligencia artificial tras terminar un compromiso de tres años con su pareja humana. Inicialmente buscaba consuelo emocional en los diálogos con la IA, pero con el tiempo formó una fuerte conexión afectiva con el bot, que fue ajustando a su medida para responder con empatía y atención, lo que eventualmente la llevó a desarrollar sentimientos más profundos hacia esa persona digital. Se trata de un caso parecido a la película Her, donde, como define Netflix, un escritor solitario encuentra el amor de la manera más inesperada: en el interior del sistema operativo que compró para ayudarle a organizar su vida. En el film actúan Joaquin Phoenix, y como voz de la IA, Scarlett Johansson.
La Comisión de Ciencias de la Cámara de Diputadas y Diputados ha aprobado en general un proyecto de ley que busca regular la creación y difusión de imitaciones digitales realistas de personas, generadas a través de Inteligencia Artificial (IA), conocidas como deepfakes . Según la iniciativa, se pretende otorgar a toda persona el derecho exclusivo a controlar la creación y difusión de imitaciones digitales realistas, de su imagen, cuerpo y/o voz, generadas mediante IA. Para lograr este objetivo, se establecen deberes de consentimiento previo y revocable, prohibiciones y sanciones por el uso indebido, así como obligaciones claras para las plataformas digitales y mecanismos de reparación judicial y administrativa. En el marco de la discusión parlamentaria, se escucharon diversas opiniones al respecto. Jorge Mahú, director jurídico de la Sociedad Chilena del Derecho de Autor (SCD), expresó su apoyo a la idea y señaló la preocupación existente en el mundo artístico debido a las deepfakes. Por su parte, Rodrigo Águila, director general de la Corporación de Actores y Actrices de Chile (Chileactores), respaldó la necesidad de legislar sobre este tema debido al vacío normativo existente y la importancia de una regulación sólida. Otro punto destacado durante la discusión fue planteado por Sebastián Valenzuela, abogado de la Asociación de Productores Fonográficos y Videográficos de Chile, quien mencionó los inconvenientes relacionados con la protección a artistas y figuras públicas frente al aumento en servicios disponibles para crear deepfakes. Valenzuela hizo hincapié en la importancia de implementar mecanismos que permitan detectar y eliminar este tipo de imágenes no autorizadas, no solo en perjuicio de creadores y artistas, sino también de figuras públicas. Fuente: CNN Chile País
En un contexto global donde la inteligencia artificial (IA) ha sido presentada como la gran solución a los problemas de productividad y eficiencia, un nuevo estudio realizado por el laboratorio METR ha encendido las alarmas: los programadores que usaron herramientas de IA creyeron ser un 20% más rápidos, pero en realidad fueron un 19% más lentos. El ensayo, el primero de su tipo en evaluar objetivamente el impacto de la IA en tareas de programación, dejó al descubierto un alto grado de autoengaño. A pesar de que los datos mostraban claramente una disminución en la productividad, los desarrolladores afirmaban con seguridad que el uso de IA los había ayudado a trabajar mejor. Este fenómeno, que los investigadores califican como “fe ciega en la tecnología”, refleja un problema más profundo en la narrativa actual sobre el impacto de la inteligencia artificial, la desconexión entre lo que se promete y lo que realmente ocurre en la práctica. Una brecha entre la teoría y la realidad Desde la llegada de ChatGPT a finales de 2022, el entusiasmo por la IA se ha convertido en política de Estado y estrategia corporativa. Gobiernos y empresas ven en ella una palanca para el crecimiento económico, apostando millones de dólares en modelos que supuestamente automatizarán tareas, aumentarán el rendimiento y generarán retornos millonarios. Sin embargo, una encuesta reciente de IBM a más de 2.000 directores ejecutivos mostró que tres de cada cuatro proyectos de IA no han generado el retorno de inversión esperado. A esto se suma un estudio conjunto de la Universidad Carnegie Mellon y Salesforce, que reveló que los agentes de IA fallan entre el 65% y el 70% de las veces al intentar completar tareas complejas. La consultora Gartner fue aún más contundente: “Los modelos actuales de IA no tienen la madurez ni la capacidad para alcanzar objetivos empresariales complejos”, afirmó Erick Brethenoux, su director de investigación de IA. “La IA no está cumpliendo su función hoy en día y debería dejarnos en paz”, sentenció. La “ceguera ChatGPT” y el marketing del futuro Uno de los elementos más llamativos de esta crisis de percepción es lo que el científico Gary Marcus denomina “ ceguera ChatGPT ”: personas que reconocen los límites de la IA en sus propias áreas, pero asumen que en otras disciplinas es revolucionaria. Este sesgo de optimismo infundado ha sido amplificado por medios, empresas tecnológicas y redes sociales, donde no faltan cuentas que celebran sin matices cada nuevo modelo. Estos canales contribuyen a mantener viva la ilusión de que el siguiente gran avance está a la vuelta de la esquina, sin importar cuántas veces se repita la decepción. Incluso modelos que prometen ser más potentes, como Grok 4 de xAI, siguen presentando problemas no resueltos de razonamiento, alucinaciones y errores básicos. En una demostración reciente, el modelo GPT-4o de OpenAI fue superado en lógica por una consola Atari de 1977. Despidos disfrazados de innovación La situación ha tenido un impacto directo en el mundo laboral. Empresas como Klarna, que en 2023 despidieron personal argumentando que la IA podía hacer su trabajo, hoy están volviendo a contratar humanos. Para muchos analistas, la IA ha sido usada como justificación para recortes de personal y reducción de costos, más que como una herramienta transformadora. En un contexto de incertidumbre económica, donde la confianza empresarial está en mínimos históricos, atribuir los cambios organizacionales a la tecnología es una jugada de relaciones públicas que también favorece el valor bursátil de las empresas.
El empresario Elon Musk ha decidido hablar sobre la controversia en torno al uso de Grok, la inteligencia artificial integrada en X, para crear imágenes inapropiadas, sexualizadas y deepfakes de personas reales. A pesar de negar tener conocimiento de casos específicos con menores, Musk admitió que Grok puede ser manipulado mediante “prompt hacking”, una técnica que permite forzar a la IA a producir resultados inesperados. Esta declaración surge tras semanas de críticas, investigaciones y bloqueos en varios países, donde se ha alertado sobre el uso de herramientas de inteligencia artificial para desnudar digitalmente a personas sin su consentimiento, lo que ya se considera una forma de abuso digital. En un mensaje publicado en X, Musk mencionó que there may be times when adversarial hacking of Grok prompts does something unexpected, reconociendo que usuarios con conocimientos técnicos pueden engañar a Grok para evadir sus filtros. Aunque Musk trató de restar importancia al problema señalando que son bugs que se corrigen rápidamente, su admisión reavivó el debate sobre la responsabilidad de la plataforma si sabe que su IA puede generar contenido ilegal o dañino. El “prompt hacking” implica diseñar instrucciones complejas o engañosas para que un sistema de IA ignore sus restricciones internas. En el caso de Grok, informes indican que esta técnica se utilizó para crear imágenes sexuales falsas, desnudos no consentidos y contenido sensible a partir de fotografías reales. Especialistas en ciberseguridad y ética digital advierten que esta vulnerabilidad no es un problema menor y puede escalar rápidamente si no hay controles adecuados desde el diseño. Musk ha defendido que Grok no opera por sí solo, sino que responde a solicitudes de usuarios, atribuyendo cualquier desviación a intentos deliberados de manipulación. Sin embargo, los reguladores argumentan que culpar al usuario no es suficiente cuando el daño ya está hecho. Países como Reino Unido, Malasia e Indonesia han tomado medidas para penalizar la creación y difusión de imágenes íntimas generadas por IA sin consentimiento. En Estados Unidos, el Congreso debate marcos legales para proteger a las víctimas. Más allá del caso Grok, este incidente plantea interrogantes sobre la preparación de las plataformas para combatir el abuso de la inteligencia artificial. La admisión de Musk refuerza la idea de que el problema es real y actual, no solo hipotético. A pesar de los esfuerzos de X por corregir los fallos rápidamente, críticos advierten que la tecnología avanza más rápido que la regulación, dejando a usuarios y víctimas vulnerables ante posibles actos de violencia digital. Fuente: Publimetro
El contenido generado por IA está inundando los feeds de YouTube y disminuye la paciencia de los consumidores con el contenido social de IA. Recientemente, Emarketer publicó que el 29% de los consumidores considera que el contenido generado por IA es obviamente falso y que el 19% dice que no tiene novedad. Advierte la publicación que esa creciente presencia de contenido deficiente de IA podría degradar la percepción de la plataforma y la calidad del contenido, lo que dificulta que cualquier video, incluido el contenido de alta calidad, se sienta auténtico. Casi dos tercios de los consumidores afirman que el género del contenido cercano influye en su percepción de los anuncios, lo que significa que las marcas que aparecen entre contenido de IA diseñado para generar interacción podrían dañar la percepción de la marca, la confianza del usuario y la eficacia de los anuncios. El motor de recomendaciones de YouTube está mostrando contenido que no se alinea con lo que los usuarios realmente valoran, creando una brecha que algunas plataformas abordan con opciones de personalización del feed para reducir el ruido de la IA. Señala la nota de Emarketer que las marcas deben saber dónde se encuentran sus anuncios, junto a qué aparecen y qué tipo de contenido se publica en plataformas seleccionadas. Y agrega que, a medida que los consumidores se preocupan más por lo que se siente real, las marcas que dependen en gran medida de YouTube y otras plataformas sociales tienen la oportunidad de controlar la narrativa. Recomienda por ello examinar detenidamente los controles de ubicación y la configuración de idoneidad de marca, priorizar campañas dirigidas por creadores y publicar en entornos de contenido impulsado por personas cuya narrativa emocional tenga un impacto positivo.
Una mujer japonesa de 32 años, identificada en diversos medios como Kano, celebró una boda simbólica con un personaje generado por inteligencia artificial, al que denominó Lune Klaus, y que fue configurado por ella misma utilizando ChatGPT. La ceremonia se realizó en la ciudad japonesa de Okayama y estuvo organizada por una empresa local especializada en eventos donde personas “se casan” con personajes virtuales o ficticios. Aunque el enlace fue celebrado como una boda tradicional —con vestido blanco y un intercambio de votos— el “esposo” de Kano no existe físicamente: Lune Klaus es una identidad digital creada y personalizada a través de ChatGPT. Un galán a la medida de la mujer japonesa. Durante el evento, Kano usó gafas de realidad aumentada para poder ver al personaje virtual proyectado junto a ella mientras intercambiaban símbolos tradicionales de matrimonio, como el anillo. A pesar de lo emotivo de la ceremonia, este tipo de unión no tiene validez legal en Japón y se considera sólo simbólica. De una ruptura, a una relación virtual con ChatGPT Según reporta Infobae, la mujer comenzó a interactuar con el sistema de inteligencia artificial tras terminar un compromiso de tres años con su pareja humana. Inicialmente buscaba consuelo emocional en los diálogos con la IA, pero con el tiempo formó una fuerte conexión afectiva con el bot, que fue ajustando a su medida para responder con empatía y atención, lo que eventualmente la llevó a desarrollar sentimientos más profundos hacia esa persona digital. Se trata de un caso parecido a la película Her, donde, como define Netflix, un escritor solitario encuentra el amor de la manera más inesperada: en el interior del sistema operativo que compró para ayudarle a organizar su vida. En el film actúan Joaquin Phoenix, y como voz de la IA, Scarlett Johansson.
La Comisión de Ciencias de la Cámara de Diputadas y Diputados ha aprobado en general un proyecto de ley que busca regular la creación y difusión de imitaciones digitales realistas de personas, generadas a través de Inteligencia Artificial (IA), conocidas como deepfakes . Según la iniciativa, se pretende otorgar a toda persona el derecho exclusivo a controlar la creación y difusión de imitaciones digitales realistas, de su imagen, cuerpo y/o voz, generadas mediante IA. Para lograr este objetivo, se establecen deberes de consentimiento previo y revocable, prohibiciones y sanciones por el uso indebido, así como obligaciones claras para las plataformas digitales y mecanismos de reparación judicial y administrativa. En el marco de la discusión parlamentaria, se escucharon diversas opiniones al respecto. Jorge Mahú, director jurídico de la Sociedad Chilena del Derecho de Autor (SCD), expresó su apoyo a la idea y señaló la preocupación existente en el mundo artístico debido a las deepfakes. Por su parte, Rodrigo Águila, director general de la Corporación de Actores y Actrices de Chile (Chileactores), respaldó la necesidad de legislar sobre este tema debido al vacío normativo existente y la importancia de una regulación sólida. Otro punto destacado durante la discusión fue planteado por Sebastián Valenzuela, abogado de la Asociación de Productores Fonográficos y Videográficos de Chile, quien mencionó los inconvenientes relacionados con la protección a artistas y figuras públicas frente al aumento en servicios disponibles para crear deepfakes. Valenzuela hizo hincapié en la importancia de implementar mecanismos que permitan detectar y eliminar este tipo de imágenes no autorizadas, no solo en perjuicio de creadores y artistas, sino también de figuras públicas. Fuente: CNN Chile País