Envenenar los datos de entrenamiento, introducir un backdoor en el modelo, erosionar el funcionamiento de un sistema de IA… MITRE ATLAS es un framework que sistematiza todas las tácticas y técnicas que pueden emplear los actores hostiles para atacar a sistemas de Inteligencia Artificial. En este artículo, desgranamos las claves de un marco de trabajo que emplean los equipos de Threat Hunting y Red Team para incrementar el nivel de resistencia de los sistemas de IA y de las empresas que los desarrollan o los emplean. #ia #inteligenciaartificial #ciberseguridad #ciberataques #empresas https://lnkd.in/eW5xm5Sh
Publicación de Tarlogic
Más publicaciones relevantes
-
Product Manager | IT Manager | Service Manager | IOT project specialist | Solutions Architect | IT Sales Manager | IT consultant | Data Analyst | Networking & Security Manager | DevOps
# Salvaguardas Pioneras Contra el Mal Uso de la IA: La Nueva Frontera en Ciberseguridad y Bioseguridad En un esfuerzo innovador para combatir el posible mal uso de la inteligencia artificial (IA) para fines nefastos, incluyendo ciberataques y el desarrollo de armas biológicas, investigadores de Scale AI, el Centro para la Seguridad de la IA, y un consorcio de más de 20 expertos han introducido un enfoque novedoso que podría redefinir el panorama de la seguridad y la protección de la IA¹. ## Una Nueva Medida de Seguridad de la IA En el corazón de esta iniciativa se encuentra una estrategia de dos vertientes diseñada para evaluar y mitigar los riesgos asociados con los modelos de IA que albergan conocimientos potencialmente peligrosos¹. El primer componente implica un método meticulosamente desarrollado para medir dicho conocimiento dentro de los sistemas de IA, una tarea que requiere tanto precisión como discreción para evitar la diseminación de información sensible¹. Para lograr esto, el equipo de investigación empleó un cuestionario exhaustivo, elaborado por expertos líderes en bioseguridad, armas químicas y ciberseguridad, para evaluar el conocimiento de los modelos de IA en estas áreas críticas sin exponer datos seguros¹. Este proceso laborioso, que costó $200,000 en mano de obra experta, resultó en la generación de 4,157 preguntas, un testimonio de la profundidad y rigor de la evaluación¹. ## La Técnica del 'Borrado Mental' El segundo componente de la estrategia es la innovadora técnica del 'borrado mental', un método de 'desaprendizaje' que permite la eliminación de conocimientos peligrosos de los modelos de IA mientras se preserva su integridad y funcionalidad general¹. Esta técnica, aplicada a los grandes modelos de lenguaje (LLMs), demostró una reducción significativa en la capacidad de los modelos para responder a preguntas relacionadas con el conocimiento peligroso, indicando así su eficacia potencial en la protección de los sistemas de IA contra el mal uso¹. A pesar de los resultados prometedores, el equipo de investigación reconoce los desafíos que se avecinan, particularmente en asegurar la robustez de la técnica de desaprendizaje y su aplicabilidad en diversos escenarios¹. ## Desafíos y Direcciones Futuras Mientras que los hallazgos del estudio ofrecen un faro de esperanza en la búsqueda de la seguridad de la IA, la complejidad de determinar la seguridad de un sistema de IA sigue siendo un desafío formidable¹. Por ejemplo, el alto rendimiento de modelos como GPT-4 en preguntas biológicas no necesariamente equivale a un riesgo aumentado, subrayando la naturaleza matizada de las posibles amenazas de la IA¹. Además, el llamado del estudio para la adopción de métodos de desaprendizaje y el establecimiento de puntos de referencia para el conocimiento peligroso destaca la necesidad de un enfoque multifacético para la seguridad de la IA, uno que abarque una variedad de técnicas para abordar diferentes riesgos. 1 medriva.com
Inicia sesión para ver o añadir un comentario.
-
Cómo hacer uso de la Inteligencia Artificial para el análisis de amenazas cibernéticas
Cómo hacer uso de la Inteligencia Artificial para el análisis de amenazas cibernéticas
https://www.estamosenlinea.co
Inicia sesión para ver o añadir un comentario.
-
🌐 Desafíos de la IA en ciberinteligencia, seguridad y defensa mundial 🌐 El próximo 22 de octubre, en el III Forum Europeo de Inteligencia Artificial que se celebrará en Alicante, nuestro socio fundador, Ángel Gómez de ÁGREDA, será uno de los expertos en la mesa redonda sobre IA y seguridad. Moderada por Manuel Palomar, director del Centro de Inteligencia Digital (CENID), esta sesión analizará los desafíos y oportunidades que la IA presenta en los ámbitos de la ciberinteligencia y la defensa mundial. Organizado por INFORMACIÓN, Prensa Ibérica, Fundación ELLIS Alicante, Encuentros NOW y la Real Academia de Ingeniería de España, este evento reunirá a destacados profesionales para debatir cómo la IA puede contribuir a una mayor seguridad, mientras se preservan los principios éticos y los derechos fundamentales. 🔍 En OdiseIA, seguimos promoviendo un enfoque responsable y ético en la aplicación de la IA en la seguridad y la defensa. ¡No te pierdas esta importante cita! 🗓 22 de octubre, 12:30 h - Auditorio de la Diputación de Alicante (ADDA) Más información: https://lnkd.in/eA3yfHPz #InteligenciaArtificial #Ciberinteligencia #Defensa #AIForGood #OdiseIA #Seguridad #Ética
Desafíos de la IA en ciberinteligencia, seguridad y defensa mundial
informacion.es
Inicia sesión para ver o añadir un comentario.
-
🚨 Las ciberamenazas evolucionan, y nuestras defensas también. En su charla "Estrategias de Protección en la Era de la Inteligencia Artificial", Gabi Malka, COO de Radware, revela cómo enfrentar los ataques cibernéticos impulsados por IA con nuevas tecnologías y estrategias avanzadas. Agenda una cita 1 a 1 con nuestros expertos https://shorturl.at/HZY0u ¡No te lo pierdas! 🔐 Gabi Malka Mind The Sec
Inicia sesión para ver o añadir un comentario.
-
Apoyando a fundadores ambiciosos de B2B SaaS en LATAM para escalar más rápido y cambiar el juego. Juntos, definimos el futuro. Sígueme también en Instagram @jaimersb
Les comparto el último newsletter de SHIFT - Innovation Association donde se destaca cómo Microsoft y OpenAI están enfrentando a ciberdelincuentes que utilizan IA. Este análisis no solo revela la sofisticación de las amenazas cibernéticas actuales, sino también la importancia de la colaboración tecnológica en la lucha contra ellas. Además, se exploran las tendencias en robótica social, un campo prometedor para nuestro futuro convivencial con la tecnología. Y mucho más. ¡Los invito a leer el artículo completo!
☀️📢 Lunes de news: Microsoft y OpenAI evidencian a ciberdelincuentes que usan IA + Claves de la futura robótica social
news.shift.pe
Inicia sesión para ver o añadir un comentario.
-
La inteligencia artificial (IA) está revolucionando el campo de la defensa, y una de sus aplicaciones más prometedoras es la detección, reconocimiento y neutralización de amenazas ocultas. Las amenazas ocultas son aquellas que no son fácilmente detectables por medios tradicionales, como radares o sensores. Pueden ser drones pequeños, misiles hipersónicos o incluso armas cibernéticas. La IA puede ayudar a identificar estas amenazas antes de que representen un peligro real. ¿Cómo funciona la IA en este contexto? Análisis de datos: La IA puede analizar grandes cantidades de datos de diferentes fuentes, como sensores, imágenes de satélite e inteligencia de señales. Esto permite identificar patrones que podrían indicar la presencia de una amenaza oculta. Reconocimiento de patrones: La IA puede ser entrenada para reconocer patrones específicos que se asocian con diferentes tipos de amenazas. Por ejemplo, puede identificar el vuelo característico de un dron o la firma de radar de un misil hipersónico. Predicción: La IA puede usar su conocimiento de las amenazas y del entorno para predecir dónde y cuándo es más probable que ocurran ataques. Esto permite a las fuerzas de defensa tomar medidas preventivas. Ventajas de la IA en la defensa: Mejora la detección: La IA puede detectar amenazas que son invisibles para los sistemas tradicionales. Aumenta la precisión: La IA puede identificar con mayor precisión el tipo de amenaza que se enfrenta. Agiliza la toma de decisiones: La IA puede ayudar a los comandantes a tomar decisiones más rápidas y precisas sobre cómo responder a las amenazas. Reduce costes: La IA puede ayudar a reducir los costes de defensa al automatizar tareas que antes se realizaban manualmente. Ejemplos de uso de la IA en la defensa: Detección de drones: La IA se está utilizando para detectar drones que podrían ser utilizados para ataques terroristas o para espiar instalaciones militares. Defensa contra misiles hipersónicos: La IA se está utilizando para desarrollar sistemas de defensa contra misiles hipersónicos, que son muy difíciles de interceptar con sistemas tradicionales. Ciberseguridad: La IA se está utilizando para mejorar la ciberseguridad de las redes militares y para detectar y responder a ataques cibernéticos. En resumen, la IA tiene un enorme potencial para mejorar la defensa contra amenazas ocultas. A medida que la tecnología de IA continúa desarrollándose, es probable que veamos aún más aplicaciones innovadoras en este campo. #gmv
Inicia sesión para ver o añadir un comentario.
-
Experto en Comunicación Estratégica, Brand PR, Comunicación Digital & Marketing I Periodista especializado en esports
Cómo hacer uso de la Inteligencia Artificial para el análisis de amenazas cibernéticas
Cómo hacer uso de la Inteligencia Artificial para el análisis de amenazas cibernéticas
https://ohzom.cl
Inicia sesión para ver o añadir un comentario.
-
Te asesoro en tu toma de decisiones relacionadas con ciberseguridad. ▶ Cultura de Seguridad ▶ Estrategia y Gobierno ▶ Gestión de Ciberseguridad
En el último episodio de nuestro podcast #DíaZero 🎙, tuvimos la fortuna de charlar con Yazmin Lobato, líder de ingeniería para México en Darktrace. Durante la charla, Yazmín compartió cómo la inteligencia artificial y el machine learning son esenciales para identificar y combatir amenazas cibernéticas sutiles, ofreciendo un paralelo fascinante entre las tácticas de Sherlock Holmes y las estrategias modernas de ciberseguridad. Exploramos cómo Darktrace, a través de su tecnología avanzada, simula un sistema inmunológico digital que detecta y responde a amenazas en tiempo real, aprendiendo continuamente de cada interacción para adaptarse y prevenir futuros ataques. Yazmín, combinando su experiencia técnica con su amor por la historia, ilustró cómo los patrones del pasado pueden informar y mejorar nuestras prácticas de seguridad actuales. Relató casos específicos donde la IA de Darktrace identificó anomalías que pasaron desapercibidas por herramientas convencionales, destacando la importancia de una vigilancia constante y adaptativa en la lucha contra el cibercrimen. Su narrativa no solo reforzó la relevancia de la IA en nuestra seguridad diaria, sino que también subrayó el rol crítico de la educación y la conciencia en la formación de una defensa cibernética robusta. El diálogo con Yazmín nos recordó que en el campo de la ciberseguridad, cada detalle cuenta. Al igual que Holmes, los profesionales de la IA deben ser meticulosos y perspicaces, siempre en busca de la pieza que falta en el rompecabezas de la ciberseguridad. Este episodio no solo comparte a nuestros oyentes sobre las capacidades avanzadas de la IA, sino que también les inspira a considerar cómo la tecnología puede ser una herramienta poderosa para anticipar y neutralizar amenazas antes de que se materialicen, protegiendo así nuestros datos y sistemas con una eficacia sin precedentes. Escúchalo en la plataforma de tu preferencia: 🟢 https://buff.ly/3UV6cMs 🟢 https://buff.ly/3UW8v1Z #HablemosDeSeguridad #Capa8 #Darktrace #Ciberseguridad #MachineLearning #InteligenciaArtificial #ProtecciónDeDatos #Negocios #Empresas
Inicia sesión para ver o añadir un comentario.
-
La evolución de viejas tácticas y el surgimiento de nuevas amenazas impulsadas por IA marcarán el panorama del cibercrimen en 2024, según el informe anual de predicciones de FortiGuard Labs.
Cómo las ciberamenazas se harán más sofisticadas en 2024 gracias a la IA
itnow.connectab2b.com
Inicia sesión para ver o añadir un comentario.
-
Capacitarnos en las nuevas tendencias de IA aplicadas a la ciberdefensa es mandatorio. El incremento exponencial de los ciberataques hoy ya supera nuestras capacidades de respuesta y el uso de la IA por parte de los ciberdelincuentes está ampliando esta brecha a pasos agigantados. ¿Como están las organizaciones utilizando la IA en Seguridad para defenderse? Un punto crítico es la detección y prioridad de amenazas; tenemos concentrada una base gigante de información y su contexto. La problemática es como analizar esos datos para determinar cuáles son las amenazas reales y como priorizarlas ya que no podemos responder a todas al mismo tiempo. La tecnología de aislación mediante micro virtualización de aplicaciones #HPSureClick y la inteligencia artificial en nuestro NGAV #HPSureSense nos permite contener la amenaza y que no ingrese en nuestros sistemas.
Inicia sesión para ver o añadir un comentario.
10.077 seguidores