Una mujer japonesa de 32 años, identificada en diversos medios como Kano, celebró una boda simbólica con un personaje generado por inteligencia artificial, al que denominó Lune Klaus, y que fue configurado por ella misma utilizando ChatGPT. La ceremonia se realizó en la ciudad japonesa de Okayama y estuvo organizada por una empresa local especializada en eventos donde personas “se casan” con personajes virtuales o ficticios. Aunque el enlace fue celebrado como una boda tradicional —con vestido blanco y un intercambio de votos— el “esposo” de Kano no existe físicamente: Lune Klaus es una identidad digital creada y personalizada a través de ChatGPT. Un galán a la medida de la mujer japonesa. Durante el evento, Kano usó gafas de realidad aumentada para poder ver al personaje virtual proyectado junto a ella mientras intercambiaban símbolos tradicionales de matrimonio, como el anillo. A pesar de lo emotivo de la ceremonia, este tipo de unión no tiene validez legal en Japón y se considera sólo simbólica. De una ruptura, a una relación virtual con ChatGPT Según reporta Infobae, la mujer comenzó a interactuar con el sistema de inteligencia artificial tras terminar un compromiso de tres años con su pareja humana. Inicialmente buscaba consuelo emocional en los diálogos con la IA, pero con el tiempo formó una fuerte conexión afectiva con el bot, que fue ajustando a su medida para responder con empatía y atención, lo que eventualmente la llevó a desarrollar sentimientos más profundos hacia esa persona digital. Se trata de un caso parecido a la película Her, donde, como define Netflix, un escritor solitario encuentra el amor de la manera más inesperada: en el interior del sistema operativo que compró para ayudarle a organizar su vida. En el film actúan Joaquin Phoenix, y como voz de la IA, Scarlett Johansson.
La Comisión de Ciencias de la Cámara de Diputadas y Diputados ha aprobado en general un proyecto de ley que busca regular la creación y difusión de imitaciones digitales realistas de personas, generadas a través de Inteligencia Artificial (IA), conocidas como deepfakes . Según la iniciativa, se pretende otorgar a toda persona el derecho exclusivo a controlar la creación y difusión de imitaciones digitales realistas, de su imagen, cuerpo y/o voz, generadas mediante IA. Para lograr este objetivo, se establecen deberes de consentimiento previo y revocable, prohibiciones y sanciones por el uso indebido, así como obligaciones claras para las plataformas digitales y mecanismos de reparación judicial y administrativa. En el marco de la discusión parlamentaria, se escucharon diversas opiniones al respecto. Jorge Mahú, director jurídico de la Sociedad Chilena del Derecho de Autor (SCD), expresó su apoyo a la idea y señaló la preocupación existente en el mundo artístico debido a las deepfakes. Por su parte, Rodrigo Águila, director general de la Corporación de Actores y Actrices de Chile (Chileactores), respaldó la necesidad de legislar sobre este tema debido al vacío normativo existente y la importancia de una regulación sólida. Otro punto destacado durante la discusión fue planteado por Sebastián Valenzuela, abogado de la Asociación de Productores Fonográficos y Videográficos de Chile, quien mencionó los inconvenientes relacionados con la protección a artistas y figuras públicas frente al aumento en servicios disponibles para crear deepfakes. Valenzuela hizo hincapié en la importancia de implementar mecanismos que permitan detectar y eliminar este tipo de imágenes no autorizadas, no solo en perjuicio de creadores y artistas, sino también de figuras públicas. Fuente: CNN Chile País
La tecnológica OpenAI negó ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y atribuyó la tragedia a unuso indebido de la herramienta. Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine, argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco, según NBC News. La compañía respondió así a la demanda interpuesta el pasado agosto por los padres del fallecido, Matt y Maria Raine, en la que afirman que ChatGPTayudó activamente a Adam a explorar métodos de suicidio. Los Raine creen que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente, al supuestamente apresurarse a comercializar la versión del chat GPT-4o, pese a problemas de seguridad. Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales, informa NBC. La tecnológica también sostiene que la herramienta advierte a sus usuarios queno deben confiar en sus respuestas como única fuente de verdad, y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda. OpenAI, convertido en los últimos años en uno de los gigantes estadounidenses de la IA, reitera así que el suicidio de Adam derivó de su rechazo aatender advertencias y buscar ayuda, así como de la falta de respuesta de otros a sus signos evidentes de angustia. En una entrada en su página web, la tecnológica destaca que su respuesta a la demanda de los Raine incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida. La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta, agrega.
Un avance científico promete transformar la evaluación del impacto a largo plazo del estrés en la salud, abriendo la puerta a un diagnóstico más preciso y a intervenciones preventivas. El equipo de investigadores liderado por la doctora Elena Ghotbi, del Johns Hopkins University School of Medicine en Estados Unidos, ha desarrollado un modelo de aprendizaje profundo para medir el volumen de las glándulas suprarrenales a partir de tomografías de tórax existentes. Esta técnica tiene un gran potencial al poder aplicarse masivamente sin necesidad de nuevas pruebas, aprovechando la información disponible para evaluar objetivamente la 'carga biológica' del estrés. ¿Qué es el Índice de Volumen Suprarrenal (AVI) y por qué es importante? El AVI se define como el volumen de las glándulas suprarrenales dividido por la estatura al cuadrado. Los investigadores han comparado este indicador con diversos parámetros como cuestionarios sobre estrés percibido, mediciones de cortisol salival, marcadores de carga alostática y otros factores biológicos. Los resultados muestran que un AVI mayor se relaciona con niveles elevados de cortisol, mayor carga alostática, estrés percibido alto y un aumento en el riesgo futuro de insuficiencia cardiaca y mortalidad. Esto sugiere que el AVI no solo refleja estrés crónico, sino que también puede predecir consecuencias graves para la salud. Implicaciones para la salud Este descubrimiento representa una innovación clínica significativa al permitir visualizar el estrés crónico acumulado en el cuerpo mediante una imagen médica estándar, en lugar de depender únicamente de cuestionarios o mediciones puntuales de cortisol. Los médicos podrían utilizar esta información para evaluar el impacto del estrés a largo plazo en los pacientes, identificar riesgos cardiovasculares, planificar intervenciones preventivas o monitorear tratamientos. Además, al basarse en datos ya disponibles, como las tomografías existentes, no se requieren pruebas adicionales ni mayor exposición a radiación, lo que facilitaría su implementación. Por primera vez, podemos 'ver' la carga a largo plazo del estrés dentro del cuerpo, señaló Elena Ghotbi, autora principal del estudio y doctora en medicina y becaria de investigación posdoctoral en la Facultad de Medicina de la Universidad Johns Hopkins. Fuente: Publimetro
El misterio del cometa interestelar 3I/ATLAS ha vuelto a captar la atención de la comunidad científica luego de que nuevas imágenes tomadas por astrónomos aficionados revelaran un comportamiento desconcertante desde el punto de vista de la física convencional. El renombrado astrofísico Avi Loeb, una figura destacada en el debate sobre objetos interestelares, planteó que la aceleración inusual observada en el visitante no se ajusta a lo esperado para un cometa natural, sugiriendo en cambio la posibilidad de que esté siendo impulsado por algún tipo de propulsión propia. Según Loeb, los nuevos cálculos realizados a partir de imágenes capturadas entre el 22 y 24 de noviembre muestran una cola y una anti-cola excepcionalmente largas. Para lograr la aceleración detectada, un cometa convencional habría tenido que desintegrarse a gran escala en un corto período de tiempo, lo cual no concuerda con la forma relativamente intacta en la que se mantiene 3I/ATLAS. En palabras del científico, la aceleración medida no se corresponde con la pérdida de masa observada, lo que ha generado controversia en la comunidad científica. Loeb no afirma categóricamente que se trate de una nave espacial o que haya vida involucrada. Su argumento se centra en la posibilidad de que la aceleración sea resultado de algún sistema de propulsión, incluso uno básico, lo cual explicaría de manera más coherente los datos observados. Las imágenes tomadas desde Japón, España y Chile muestran una anti-cola extremadamente densa orientada hacia el Sol, con una fuerza aparente capaz de contrarrestar el viento solar. Esta peculiaridad ha llevado a plantear si 3I/ATLAS está expulsando material de manera desconocida o si estamos ante un fenómeno sin precedentes en un objeto proveniente del exterior del Sistema Solar. El cometa alcanzará su punto más cercano a la Tierra el 19 de diciembre, a una distancia segura pero lo suficientemente próxima como para permitir observaciones más detalladas a través de telescopios como el Hubble y el James Webb. La incógnita sobre la naturaleza exacta de 3I/ATLAS permanece abierta hasta que lleguen los datos adicionales en diciembre, según Loeb quien afirma que el veredicto dependerá de los datos que lleguen en diciembre. Fuente: Publimetro
Una mujer japonesa de 32 años, identificada en diversos medios como Kano, celebró una boda simbólica con un personaje generado por inteligencia artificial, al que denominó Lune Klaus, y que fue configurado por ella misma utilizando ChatGPT. La ceremonia se realizó en la ciudad japonesa de Okayama y estuvo organizada por una empresa local especializada en eventos donde personas “se casan” con personajes virtuales o ficticios. Aunque el enlace fue celebrado como una boda tradicional —con vestido blanco y un intercambio de votos— el “esposo” de Kano no existe físicamente: Lune Klaus es una identidad digital creada y personalizada a través de ChatGPT. Un galán a la medida de la mujer japonesa. Durante el evento, Kano usó gafas de realidad aumentada para poder ver al personaje virtual proyectado junto a ella mientras intercambiaban símbolos tradicionales de matrimonio, como el anillo. A pesar de lo emotivo de la ceremonia, este tipo de unión no tiene validez legal en Japón y se considera sólo simbólica. De una ruptura, a una relación virtual con ChatGPT Según reporta Infobae, la mujer comenzó a interactuar con el sistema de inteligencia artificial tras terminar un compromiso de tres años con su pareja humana. Inicialmente buscaba consuelo emocional en los diálogos con la IA, pero con el tiempo formó una fuerte conexión afectiva con el bot, que fue ajustando a su medida para responder con empatía y atención, lo que eventualmente la llevó a desarrollar sentimientos más profundos hacia esa persona digital. Se trata de un caso parecido a la película Her, donde, como define Netflix, un escritor solitario encuentra el amor de la manera más inesperada: en el interior del sistema operativo que compró para ayudarle a organizar su vida. En el film actúan Joaquin Phoenix, y como voz de la IA, Scarlett Johansson.
La Comisión de Ciencias de la Cámara de Diputadas y Diputados ha aprobado en general un proyecto de ley que busca regular la creación y difusión de imitaciones digitales realistas de personas, generadas a través de Inteligencia Artificial (IA), conocidas como deepfakes . Según la iniciativa, se pretende otorgar a toda persona el derecho exclusivo a controlar la creación y difusión de imitaciones digitales realistas, de su imagen, cuerpo y/o voz, generadas mediante IA. Para lograr este objetivo, se establecen deberes de consentimiento previo y revocable, prohibiciones y sanciones por el uso indebido, así como obligaciones claras para las plataformas digitales y mecanismos de reparación judicial y administrativa. En el marco de la discusión parlamentaria, se escucharon diversas opiniones al respecto. Jorge Mahú, director jurídico de la Sociedad Chilena del Derecho de Autor (SCD), expresó su apoyo a la idea y señaló la preocupación existente en el mundo artístico debido a las deepfakes. Por su parte, Rodrigo Águila, director general de la Corporación de Actores y Actrices de Chile (Chileactores), respaldó la necesidad de legislar sobre este tema debido al vacío normativo existente y la importancia de una regulación sólida. Otro punto destacado durante la discusión fue planteado por Sebastián Valenzuela, abogado de la Asociación de Productores Fonográficos y Videográficos de Chile, quien mencionó los inconvenientes relacionados con la protección a artistas y figuras públicas frente al aumento en servicios disponibles para crear deepfakes. Valenzuela hizo hincapié en la importancia de implementar mecanismos que permitan detectar y eliminar este tipo de imágenes no autorizadas, no solo en perjuicio de creadores y artistas, sino también de figuras públicas. Fuente: CNN Chile País
La tecnológica OpenAI negó ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y atribuyó la tragedia a unuso indebido de la herramienta. Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine, argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco, según NBC News. La compañía respondió así a la demanda interpuesta el pasado agosto por los padres del fallecido, Matt y Maria Raine, en la que afirman que ChatGPTayudó activamente a Adam a explorar métodos de suicidio. Los Raine creen que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente, al supuestamente apresurarse a comercializar la versión del chat GPT-4o, pese a problemas de seguridad. Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales, informa NBC. La tecnológica también sostiene que la herramienta advierte a sus usuarios queno deben confiar en sus respuestas como única fuente de verdad, y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda. OpenAI, convertido en los últimos años en uno de los gigantes estadounidenses de la IA, reitera así que el suicidio de Adam derivó de su rechazo aatender advertencias y buscar ayuda, así como de la falta de respuesta de otros a sus signos evidentes de angustia. En una entrada en su página web, la tecnológica destaca que su respuesta a la demanda de los Raine incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida. La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta, agrega.
Un avance científico promete transformar la evaluación del impacto a largo plazo del estrés en la salud, abriendo la puerta a un diagnóstico más preciso y a intervenciones preventivas. El equipo de investigadores liderado por la doctora Elena Ghotbi, del Johns Hopkins University School of Medicine en Estados Unidos, ha desarrollado un modelo de aprendizaje profundo para medir el volumen de las glándulas suprarrenales a partir de tomografías de tórax existentes. Esta técnica tiene un gran potencial al poder aplicarse masivamente sin necesidad de nuevas pruebas, aprovechando la información disponible para evaluar objetivamente la 'carga biológica' del estrés. ¿Qué es el Índice de Volumen Suprarrenal (AVI) y por qué es importante? El AVI se define como el volumen de las glándulas suprarrenales dividido por la estatura al cuadrado. Los investigadores han comparado este indicador con diversos parámetros como cuestionarios sobre estrés percibido, mediciones de cortisol salival, marcadores de carga alostática y otros factores biológicos. Los resultados muestran que un AVI mayor se relaciona con niveles elevados de cortisol, mayor carga alostática, estrés percibido alto y un aumento en el riesgo futuro de insuficiencia cardiaca y mortalidad. Esto sugiere que el AVI no solo refleja estrés crónico, sino que también puede predecir consecuencias graves para la salud. Implicaciones para la salud Este descubrimiento representa una innovación clínica significativa al permitir visualizar el estrés crónico acumulado en el cuerpo mediante una imagen médica estándar, en lugar de depender únicamente de cuestionarios o mediciones puntuales de cortisol. Los médicos podrían utilizar esta información para evaluar el impacto del estrés a largo plazo en los pacientes, identificar riesgos cardiovasculares, planificar intervenciones preventivas o monitorear tratamientos. Además, al basarse en datos ya disponibles, como las tomografías existentes, no se requieren pruebas adicionales ni mayor exposición a radiación, lo que facilitaría su implementación. Por primera vez, podemos 'ver' la carga a largo plazo del estrés dentro del cuerpo, señaló Elena Ghotbi, autora principal del estudio y doctora en medicina y becaria de investigación posdoctoral en la Facultad de Medicina de la Universidad Johns Hopkins. Fuente: Publimetro
El misterio del cometa interestelar 3I/ATLAS ha vuelto a captar la atención de la comunidad científica luego de que nuevas imágenes tomadas por astrónomos aficionados revelaran un comportamiento desconcertante desde el punto de vista de la física convencional. El renombrado astrofísico Avi Loeb, una figura destacada en el debate sobre objetos interestelares, planteó que la aceleración inusual observada en el visitante no se ajusta a lo esperado para un cometa natural, sugiriendo en cambio la posibilidad de que esté siendo impulsado por algún tipo de propulsión propia. Según Loeb, los nuevos cálculos realizados a partir de imágenes capturadas entre el 22 y 24 de noviembre muestran una cola y una anti-cola excepcionalmente largas. Para lograr la aceleración detectada, un cometa convencional habría tenido que desintegrarse a gran escala en un corto período de tiempo, lo cual no concuerda con la forma relativamente intacta en la que se mantiene 3I/ATLAS. En palabras del científico, la aceleración medida no se corresponde con la pérdida de masa observada, lo que ha generado controversia en la comunidad científica. Loeb no afirma categóricamente que se trate de una nave espacial o que haya vida involucrada. Su argumento se centra en la posibilidad de que la aceleración sea resultado de algún sistema de propulsión, incluso uno básico, lo cual explicaría de manera más coherente los datos observados. Las imágenes tomadas desde Japón, España y Chile muestran una anti-cola extremadamente densa orientada hacia el Sol, con una fuerza aparente capaz de contrarrestar el viento solar. Esta peculiaridad ha llevado a plantear si 3I/ATLAS está expulsando material de manera desconocida o si estamos ante un fenómeno sin precedentes en un objeto proveniente del exterior del Sistema Solar. El cometa alcanzará su punto más cercano a la Tierra el 19 de diciembre, a una distancia segura pero lo suficientemente próxima como para permitir observaciones más detalladas a través de telescopios como el Hubble y el James Webb. La incógnita sobre la naturaleza exacta de 3I/ATLAS permanece abierta hasta que lleguen los datos adicionales en diciembre, según Loeb quien afirma que el veredicto dependerá de los datos que lleguen en diciembre. Fuente: Publimetro