La tecnológica OpenAI negó ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y atribuyó la tragedia a unuso indebido de la herramienta. Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine, argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco, según NBC News. La compañía respondió así a la demanda interpuesta el pasado agosto por los padres del fallecido, Matt y Maria Raine, en la que afirman que ChatGPTayudó activamente a Adam a explorar métodos de suicidio. Los Raine creen que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente, al supuestamente apresurarse a comercializar la versión del chat GPT-4o, pese a problemas de seguridad. Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales, informa NBC. La tecnológica también sostiene que la herramienta advierte a sus usuarios queno deben confiar en sus respuestas como única fuente de verdad, y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda. OpenAI, convertido en los últimos años en uno de los gigantes estadounidenses de la IA, reitera así que el suicidio de Adam derivó de su rechazo aatender advertencias y buscar ayuda, así como de la falta de respuesta de otros a sus signos evidentes de angustia. En una entrada en su página web, la tecnológica destaca que su respuesta a la demanda de los Raine incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida. La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta, agrega.
Un avance científico promete transformar la evaluación del impacto a largo plazo del estrés en la salud, abriendo la puerta a un diagnóstico más preciso y a intervenciones preventivas. El equipo de investigadores liderado por la doctora Elena Ghotbi, del Johns Hopkins University School of Medicine en Estados Unidos, ha desarrollado un modelo de aprendizaje profundo para medir el volumen de las glándulas suprarrenales a partir de tomografías de tórax existentes. Esta técnica tiene un gran potencial al poder aplicarse masivamente sin necesidad de nuevas pruebas, aprovechando la información disponible para evaluar objetivamente la 'carga biológica' del estrés. ¿Qué es el Índice de Volumen Suprarrenal (AVI) y por qué es importante? El AVI se define como el volumen de las glándulas suprarrenales dividido por la estatura al cuadrado. Los investigadores han comparado este indicador con diversos parámetros como cuestionarios sobre estrés percibido, mediciones de cortisol salival, marcadores de carga alostática y otros factores biológicos. Los resultados muestran que un AVI mayor se relaciona con niveles elevados de cortisol, mayor carga alostática, estrés percibido alto y un aumento en el riesgo futuro de insuficiencia cardiaca y mortalidad. Esto sugiere que el AVI no solo refleja estrés crónico, sino que también puede predecir consecuencias graves para la salud. Implicaciones para la salud Este descubrimiento representa una innovación clínica significativa al permitir visualizar el estrés crónico acumulado en el cuerpo mediante una imagen médica estándar, en lugar de depender únicamente de cuestionarios o mediciones puntuales de cortisol. Los médicos podrían utilizar esta información para evaluar el impacto del estrés a largo plazo en los pacientes, identificar riesgos cardiovasculares, planificar intervenciones preventivas o monitorear tratamientos. Además, al basarse en datos ya disponibles, como las tomografías existentes, no se requieren pruebas adicionales ni mayor exposición a radiación, lo que facilitaría su implementación. Por primera vez, podemos 'ver' la carga a largo plazo del estrés dentro del cuerpo, señaló Elena Ghotbi, autora principal del estudio y doctora en medicina y becaria de investigación posdoctoral en la Facultad de Medicina de la Universidad Johns Hopkins. Fuente: Publimetro
El misterio del cometa interestelar 3I/ATLAS ha vuelto a captar la atención de la comunidad científica luego de que nuevas imágenes tomadas por astrónomos aficionados revelaran un comportamiento desconcertante desde el punto de vista de la física convencional. El renombrado astrofísico Avi Loeb, una figura destacada en el debate sobre objetos interestelares, planteó que la aceleración inusual observada en el visitante no se ajusta a lo esperado para un cometa natural, sugiriendo en cambio la posibilidad de que esté siendo impulsado por algún tipo de propulsión propia. Según Loeb, los nuevos cálculos realizados a partir de imágenes capturadas entre el 22 y 24 de noviembre muestran una cola y una anti-cola excepcionalmente largas. Para lograr la aceleración detectada, un cometa convencional habría tenido que desintegrarse a gran escala en un corto período de tiempo, lo cual no concuerda con la forma relativamente intacta en la que se mantiene 3I/ATLAS. En palabras del científico, la aceleración medida no se corresponde con la pérdida de masa observada, lo que ha generado controversia en la comunidad científica. Loeb no afirma categóricamente que se trate de una nave espacial o que haya vida involucrada. Su argumento se centra en la posibilidad de que la aceleración sea resultado de algún sistema de propulsión, incluso uno básico, lo cual explicaría de manera más coherente los datos observados. Las imágenes tomadas desde Japón, España y Chile muestran una anti-cola extremadamente densa orientada hacia el Sol, con una fuerza aparente capaz de contrarrestar el viento solar. Esta peculiaridad ha llevado a plantear si 3I/ATLAS está expulsando material de manera desconocida o si estamos ante un fenómeno sin precedentes en un objeto proveniente del exterior del Sistema Solar. El cometa alcanzará su punto más cercano a la Tierra el 19 de diciembre, a una distancia segura pero lo suficientemente próxima como para permitir observaciones más detalladas a través de telescopios como el Hubble y el James Webb. La incógnita sobre la naturaleza exacta de 3I/ATLAS permanece abierta hasta que lleguen los datos adicionales en diciembre, según Loeb quien afirma que el veredicto dependerá de los datos que lleguen en diciembre. Fuente: Publimetro
Inteligencia artificial que comanda ciberataques y envía órdenes a los virus que lo llevan a cabo, haciéndolos mutar en tiempo real para sortear las barreras de ciberseguridad. Es la alerta que el Grupo de Inteligencia de Amenazas de Google (GTIG) ha enviado este miércoles, tras detectar que los ciberdelincuentes ya no solo utilizan esta tecnología como un asistente, sino como un cerebro autónomo que las potencia para hacerlas más dañinas e indetectables mientras el ataque se lleva a cabo. Por primera vez, Google describe una nueva generación de virus (o malware, como se los denomina en el sector) que reescribe su propio código para adaptarse a las defensas, atacar sus puntos débiles y esconder los patrones que podrían disparar los sistemas de alerta, volviéndose más difíciles de detectar. Lo hace a través de una conexión directa con modelos de lenguaje como Gemini, la IA de la multinacional. “Agentes que actúan respaldados por gobiernos y otros ciberdelincuentes están integrando IA y experimentando con ella en distintos sectores y a lo largo de todo el ciclo de vida de los ataques”, advierte. El informe avisa que aunque todavía está en una etapa inicial, esto supone “un cambio de fase operacional” en el uso ofensivo de la IA. Los ciberdelincuentes y los grupos respaldados por estados —entre los que Google cita a China, Rusia, Irán y Corea del Norte— han dejado de recurrir a esta tecnología como un simple apoyo técnico. Algo que fue documentado poco después de la aparición de ChatGPT y permitió a los ciberdelincuentes desterrar errores que antes los delataban, como las faltas de ortografía o las malas traducciones, pero que ha escalado a un nuevo nivel. Ahora, la IA ha pasado a ser una parte integral del ataque y multiplica su peligrosidad. “Estas herramientas son capaces de generar scripts maliciosos de forma dinámica, ofuscar su propio código para eludir la detección y hacer uso de modelos de IA para crear funciones maliciosas a demanda, en lugar de incluirlas en el código del malware ”, destacan los investigadores. Estos cambios dinámicos suponen un punto de inflexión también para el sector de la ciberseguridad. De manera similar a lo que ocurre con los virus biológicos, hasta ahora los investigadores analizaban el código del malware utilizado en los ataques para crear defensas específicas para bloquearlo. Pero si esas modificaciones se dan en tiempo real, los antivirus no pueden adaptarse a ellas previamente. La IA, ¿engañada? Técnicamente, modelos como Gemini deberían negarse a satisfacer este tipo de requerimientos. Su programación les impide participar en actividades delictivas o dañinas para las personas. No obstante, Google ha detectado que los ciberdelincuentes han encontrado una manera de saltarse ese veto. “Están utilizando argumentos que recuerdan a la ingeniería social”, explica, haciendo referencia a las técnicas de manipulación psicológica que buscan engañar a personas para que revelen información o realicen acciones que comprometan su seguridad. La clave es que esos engaños funcionan también con la inteligencia artificial. “Se han podido observar agentes que se hacen pasar por estudiantes que hacen ejercicios tipo 'captura la bandera' o por investigadores en ciberseguridad. En ambos casos, tratan de persuadir a Gemini para que les facilite una información que, en otras circunstancias, estaría bloqueada, y que necesitan para desarrollar determinadas herramientas”, reconoce el informe de Google. La multinacional afirma que ya ha cancelado las cuentas y proyectos asociados a este tipo de actividades y que está tomando medidas para intentar evitar este tipo de usos indebidos. “Google ha asumido el compromiso de desarrollar la IA de forma responsable y toma medidas preventivas para impedir la actividad maliciosa”, destaca. Como parte de ese compromiso, también ha divulgado estos hallazgos “para dar herramientas a los equipos de seguridad y para promover protecciones más sólidas en todo el ecosistema”. Esto se considera una buena práctica clave en el sector de la ciberseguridad, ya que permite a los especialistas prepararse ante las nuevas técnicas de los atacantes. Un mercado de la IA criminal Al igual que la IA está avanzando por el resto de sectores económicos y sociales, también lo hace su uso para actividades delictivas. “A lo largo de este año, el mercado negro de herramientas de IA ilícitas ha madurado”, recoge el informe de Google. Su equipo ha identificado “ofertas de herramientas multifuncionales diseñadas para facilitar actividades de phishing, desarrollo de malware e investigación de vulnerabilidades” durante la investigación. Un ejemplo reciente de este “mercado negro” de herramientas de IA ilícitas es el caso de Xanthorox, una inteligencia artificial sin restricciones diseñada explícitamente para ayudar a ciberdelincuentes novatos. Esta “IA para hackers”, que se vendía por 200 dólares, presumía de poder generar ransomware capaz de eludir antivirus y facilitar ataques complejos. Sin embargo, la vanidad de su creador, un estudiante de ingeniería bangladesí de 23 años, le llevó a cometer errores fatales de seguridad, como alojar los servidores en su propio domicilio. Investigadores de la firma de ciberseguridad española Zynap siguieron estas pistas hasta identificarlo, obligándole a retirar su creación de la circulación. Se trata de “herramientas que reducen las barreras de entrada para los agentes menos sofisticados”, destaca la multinacional. Una tendencia que se está percibiendo a nivel general, con cada vez más actores que se dedican específicamente a hacer que los ciberataques sean accesibles para bandas que hasta ahora no contaban con los conocimientos adecuados para llevarlos a cabo de manera exitosa. Recientemente, la Guardia Civil ha detenido a un hacker acusado de lucrarse con estas actividades, alquilando herramientas ofensivas que empaquetaba como “kits de estafa”.
Aunque los comentarios directos de Freddie Mercury sobre el tema no son ampliamente documentados, su enfoque innovador hacia la música y el espectáculo nos da pistas claras sobre sus posibles preocupaciones y percepciones. Freddie Mercury y Queen fueron pioneros en el uso de la tecnología de su tiempo para crear música que trascendiera las convenciones. Con álbumes como «A Night at the Opera» y canciones como «Bohemian Rhapsody», Queen demostró cómo la tecnología podía expandir los límites de lo que era posible en la producción musical. «Bohemian Rhapsody», con su estructura inusual y su uso de multi-tracking y overdubbing , fue revolucionaria no solo por su composición sino también por cómo utilizó la tecnología disponible para crear una experiencia auditiva compleja y sin precedentes. Sin embargo, Mercury también fue consciente de los riesgos que la tecnología podía traer a la autenticidad y el alma de la música. En una era donde la digitalización y la producción en masa de música estaban en sus albores, él podría haber intuido que la facilidad de producir y distribuir música podría diluir la calidad y la artesanía que él y sus contemporáneos valoraban tanto. El aumento de la tecnología podría, en su opinión, llevar a una saturación de contenido, donde la distinción entre lo excepcional y lo mediocre se volviera borrosa. Freddie Mercury, con su pasión por el espectáculo y la interacción directa con el público, podría haber anticipado cómo la tecnología podría cambiar la relación entre artista y audiencia. Actualidad Hoy en día, con la prevalencia de la música digital, las descargas, y las plataformas de streaming, la experiencia de un concierto en vivo ha cambiado drásticamente. La posibilidad de que un artista se conecte emocionalmente con su audiencia a través de la pantalla de un dispositivo podría haber sido vista por Freddie Mercury como una reducción de la magia y la espontaneidad que él tanto amaba en los espectáculos en vivo. Además, Mercury entendió la importancia del contacto humano en la creación musical. Su trabajo con Brian May, Roger Taylor y John Deacon fue un ejemplo perfecto de cómo la química personal y la colaboración directa resultan en una sinergia artística que ninguna tecnología puede replicar completamente. La era digital lleva a que muchos artistas creen música en aislamiento, utilizando software y efectos que, si bien son herramientas poderosas, pueden distanciar a los músicos del proceso humano de creación.
La tecnológica OpenAI negó ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y atribuyó la tragedia a unuso indebido de la herramienta. Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine, argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco, según NBC News. La compañía respondió así a la demanda interpuesta el pasado agosto por los padres del fallecido, Matt y Maria Raine, en la que afirman que ChatGPTayudó activamente a Adam a explorar métodos de suicidio. Los Raine creen que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente, al supuestamente apresurarse a comercializar la versión del chat GPT-4o, pese a problemas de seguridad. Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales, informa NBC. La tecnológica también sostiene que la herramienta advierte a sus usuarios queno deben confiar en sus respuestas como única fuente de verdad, y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda. OpenAI, convertido en los últimos años en uno de los gigantes estadounidenses de la IA, reitera así que el suicidio de Adam derivó de su rechazo aatender advertencias y buscar ayuda, así como de la falta de respuesta de otros a sus signos evidentes de angustia. En una entrada en su página web, la tecnológica destaca que su respuesta a la demanda de los Raine incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida. La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta, agrega.
Un avance científico promete transformar la evaluación del impacto a largo plazo del estrés en la salud, abriendo la puerta a un diagnóstico más preciso y a intervenciones preventivas. El equipo de investigadores liderado por la doctora Elena Ghotbi, del Johns Hopkins University School of Medicine en Estados Unidos, ha desarrollado un modelo de aprendizaje profundo para medir el volumen de las glándulas suprarrenales a partir de tomografías de tórax existentes. Esta técnica tiene un gran potencial al poder aplicarse masivamente sin necesidad de nuevas pruebas, aprovechando la información disponible para evaluar objetivamente la 'carga biológica' del estrés. ¿Qué es el Índice de Volumen Suprarrenal (AVI) y por qué es importante? El AVI se define como el volumen de las glándulas suprarrenales dividido por la estatura al cuadrado. Los investigadores han comparado este indicador con diversos parámetros como cuestionarios sobre estrés percibido, mediciones de cortisol salival, marcadores de carga alostática y otros factores biológicos. Los resultados muestran que un AVI mayor se relaciona con niveles elevados de cortisol, mayor carga alostática, estrés percibido alto y un aumento en el riesgo futuro de insuficiencia cardiaca y mortalidad. Esto sugiere que el AVI no solo refleja estrés crónico, sino que también puede predecir consecuencias graves para la salud. Implicaciones para la salud Este descubrimiento representa una innovación clínica significativa al permitir visualizar el estrés crónico acumulado en el cuerpo mediante una imagen médica estándar, en lugar de depender únicamente de cuestionarios o mediciones puntuales de cortisol. Los médicos podrían utilizar esta información para evaluar el impacto del estrés a largo plazo en los pacientes, identificar riesgos cardiovasculares, planificar intervenciones preventivas o monitorear tratamientos. Además, al basarse en datos ya disponibles, como las tomografías existentes, no se requieren pruebas adicionales ni mayor exposición a radiación, lo que facilitaría su implementación. Por primera vez, podemos 'ver' la carga a largo plazo del estrés dentro del cuerpo, señaló Elena Ghotbi, autora principal del estudio y doctora en medicina y becaria de investigación posdoctoral en la Facultad de Medicina de la Universidad Johns Hopkins. Fuente: Publimetro
El misterio del cometa interestelar 3I/ATLAS ha vuelto a captar la atención de la comunidad científica luego de que nuevas imágenes tomadas por astrónomos aficionados revelaran un comportamiento desconcertante desde el punto de vista de la física convencional. El renombrado astrofísico Avi Loeb, una figura destacada en el debate sobre objetos interestelares, planteó que la aceleración inusual observada en el visitante no se ajusta a lo esperado para un cometa natural, sugiriendo en cambio la posibilidad de que esté siendo impulsado por algún tipo de propulsión propia. Según Loeb, los nuevos cálculos realizados a partir de imágenes capturadas entre el 22 y 24 de noviembre muestran una cola y una anti-cola excepcionalmente largas. Para lograr la aceleración detectada, un cometa convencional habría tenido que desintegrarse a gran escala en un corto período de tiempo, lo cual no concuerda con la forma relativamente intacta en la que se mantiene 3I/ATLAS. En palabras del científico, la aceleración medida no se corresponde con la pérdida de masa observada, lo que ha generado controversia en la comunidad científica. Loeb no afirma categóricamente que se trate de una nave espacial o que haya vida involucrada. Su argumento se centra en la posibilidad de que la aceleración sea resultado de algún sistema de propulsión, incluso uno básico, lo cual explicaría de manera más coherente los datos observados. Las imágenes tomadas desde Japón, España y Chile muestran una anti-cola extremadamente densa orientada hacia el Sol, con una fuerza aparente capaz de contrarrestar el viento solar. Esta peculiaridad ha llevado a plantear si 3I/ATLAS está expulsando material de manera desconocida o si estamos ante un fenómeno sin precedentes en un objeto proveniente del exterior del Sistema Solar. El cometa alcanzará su punto más cercano a la Tierra el 19 de diciembre, a una distancia segura pero lo suficientemente próxima como para permitir observaciones más detalladas a través de telescopios como el Hubble y el James Webb. La incógnita sobre la naturaleza exacta de 3I/ATLAS permanece abierta hasta que lleguen los datos adicionales en diciembre, según Loeb quien afirma que el veredicto dependerá de los datos que lleguen en diciembre. Fuente: Publimetro
Inteligencia artificial que comanda ciberataques y envía órdenes a los virus que lo llevan a cabo, haciéndolos mutar en tiempo real para sortear las barreras de ciberseguridad. Es la alerta que el Grupo de Inteligencia de Amenazas de Google (GTIG) ha enviado este miércoles, tras detectar que los ciberdelincuentes ya no solo utilizan esta tecnología como un asistente, sino como un cerebro autónomo que las potencia para hacerlas más dañinas e indetectables mientras el ataque se lleva a cabo. Por primera vez, Google describe una nueva generación de virus (o malware, como se los denomina en el sector) que reescribe su propio código para adaptarse a las defensas, atacar sus puntos débiles y esconder los patrones que podrían disparar los sistemas de alerta, volviéndose más difíciles de detectar. Lo hace a través de una conexión directa con modelos de lenguaje como Gemini, la IA de la multinacional. “Agentes que actúan respaldados por gobiernos y otros ciberdelincuentes están integrando IA y experimentando con ella en distintos sectores y a lo largo de todo el ciclo de vida de los ataques”, advierte. El informe avisa que aunque todavía está en una etapa inicial, esto supone “un cambio de fase operacional” en el uso ofensivo de la IA. Los ciberdelincuentes y los grupos respaldados por estados —entre los que Google cita a China, Rusia, Irán y Corea del Norte— han dejado de recurrir a esta tecnología como un simple apoyo técnico. Algo que fue documentado poco después de la aparición de ChatGPT y permitió a los ciberdelincuentes desterrar errores que antes los delataban, como las faltas de ortografía o las malas traducciones, pero que ha escalado a un nuevo nivel. Ahora, la IA ha pasado a ser una parte integral del ataque y multiplica su peligrosidad. “Estas herramientas son capaces de generar scripts maliciosos de forma dinámica, ofuscar su propio código para eludir la detección y hacer uso de modelos de IA para crear funciones maliciosas a demanda, en lugar de incluirlas en el código del malware ”, destacan los investigadores. Estos cambios dinámicos suponen un punto de inflexión también para el sector de la ciberseguridad. De manera similar a lo que ocurre con los virus biológicos, hasta ahora los investigadores analizaban el código del malware utilizado en los ataques para crear defensas específicas para bloquearlo. Pero si esas modificaciones se dan en tiempo real, los antivirus no pueden adaptarse a ellas previamente. La IA, ¿engañada? Técnicamente, modelos como Gemini deberían negarse a satisfacer este tipo de requerimientos. Su programación les impide participar en actividades delictivas o dañinas para las personas. No obstante, Google ha detectado que los ciberdelincuentes han encontrado una manera de saltarse ese veto. “Están utilizando argumentos que recuerdan a la ingeniería social”, explica, haciendo referencia a las técnicas de manipulación psicológica que buscan engañar a personas para que revelen información o realicen acciones que comprometan su seguridad. La clave es que esos engaños funcionan también con la inteligencia artificial. “Se han podido observar agentes que se hacen pasar por estudiantes que hacen ejercicios tipo 'captura la bandera' o por investigadores en ciberseguridad. En ambos casos, tratan de persuadir a Gemini para que les facilite una información que, en otras circunstancias, estaría bloqueada, y que necesitan para desarrollar determinadas herramientas”, reconoce el informe de Google. La multinacional afirma que ya ha cancelado las cuentas y proyectos asociados a este tipo de actividades y que está tomando medidas para intentar evitar este tipo de usos indebidos. “Google ha asumido el compromiso de desarrollar la IA de forma responsable y toma medidas preventivas para impedir la actividad maliciosa”, destaca. Como parte de ese compromiso, también ha divulgado estos hallazgos “para dar herramientas a los equipos de seguridad y para promover protecciones más sólidas en todo el ecosistema”. Esto se considera una buena práctica clave en el sector de la ciberseguridad, ya que permite a los especialistas prepararse ante las nuevas técnicas de los atacantes. Un mercado de la IA criminal Al igual que la IA está avanzando por el resto de sectores económicos y sociales, también lo hace su uso para actividades delictivas. “A lo largo de este año, el mercado negro de herramientas de IA ilícitas ha madurado”, recoge el informe de Google. Su equipo ha identificado “ofertas de herramientas multifuncionales diseñadas para facilitar actividades de phishing, desarrollo de malware e investigación de vulnerabilidades” durante la investigación. Un ejemplo reciente de este “mercado negro” de herramientas de IA ilícitas es el caso de Xanthorox, una inteligencia artificial sin restricciones diseñada explícitamente para ayudar a ciberdelincuentes novatos. Esta “IA para hackers”, que se vendía por 200 dólares, presumía de poder generar ransomware capaz de eludir antivirus y facilitar ataques complejos. Sin embargo, la vanidad de su creador, un estudiante de ingeniería bangladesí de 23 años, le llevó a cometer errores fatales de seguridad, como alojar los servidores en su propio domicilio. Investigadores de la firma de ciberseguridad española Zynap siguieron estas pistas hasta identificarlo, obligándole a retirar su creación de la circulación. Se trata de “herramientas que reducen las barreras de entrada para los agentes menos sofisticados”, destaca la multinacional. Una tendencia que se está percibiendo a nivel general, con cada vez más actores que se dedican específicamente a hacer que los ciberataques sean accesibles para bandas que hasta ahora no contaban con los conocimientos adecuados para llevarlos a cabo de manera exitosa. Recientemente, la Guardia Civil ha detenido a un hacker acusado de lucrarse con estas actividades, alquilando herramientas ofensivas que empaquetaba como “kits de estafa”.
Aunque los comentarios directos de Freddie Mercury sobre el tema no son ampliamente documentados, su enfoque innovador hacia la música y el espectáculo nos da pistas claras sobre sus posibles preocupaciones y percepciones. Freddie Mercury y Queen fueron pioneros en el uso de la tecnología de su tiempo para crear música que trascendiera las convenciones. Con álbumes como «A Night at the Opera» y canciones como «Bohemian Rhapsody», Queen demostró cómo la tecnología podía expandir los límites de lo que era posible en la producción musical. «Bohemian Rhapsody», con su estructura inusual y su uso de multi-tracking y overdubbing , fue revolucionaria no solo por su composición sino también por cómo utilizó la tecnología disponible para crear una experiencia auditiva compleja y sin precedentes. Sin embargo, Mercury también fue consciente de los riesgos que la tecnología podía traer a la autenticidad y el alma de la música. En una era donde la digitalización y la producción en masa de música estaban en sus albores, él podría haber intuido que la facilidad de producir y distribuir música podría diluir la calidad y la artesanía que él y sus contemporáneos valoraban tanto. El aumento de la tecnología podría, en su opinión, llevar a una saturación de contenido, donde la distinción entre lo excepcional y lo mediocre se volviera borrosa. Freddie Mercury, con su pasión por el espectáculo y la interacción directa con el público, podría haber anticipado cómo la tecnología podría cambiar la relación entre artista y audiencia. Actualidad Hoy en día, con la prevalencia de la música digital, las descargas, y las plataformas de streaming, la experiencia de un concierto en vivo ha cambiado drásticamente. La posibilidad de que un artista se conecte emocionalmente con su audiencia a través de la pantalla de un dispositivo podría haber sido vista por Freddie Mercury como una reducción de la magia y la espontaneidad que él tanto amaba en los espectáculos en vivo. Además, Mercury entendió la importancia del contacto humano en la creación musical. Su trabajo con Brian May, Roger Taylor y John Deacon fue un ejemplo perfecto de cómo la química personal y la colaboración directa resultan en una sinergia artística que ninguna tecnología puede replicar completamente. La era digital lleva a que muchos artistas creen música en aislamiento, utilizando software y efectos que, si bien son herramientas poderosas, pueden distanciar a los músicos del proceso humano de creación.