Elastic Security Labs publica una guía para evitar riesgos y abusos de LLM
Elastic Security Labs publica la guía definitiva para asegurar la adopción de LLM con recomendaciones de mitigación y contramedidas de InfoSec
Elastic Security Labs tiene como objetivo democratizar el conocimiento y apoyarte en la lucha contra los actores de amenazas. Conocidos más que todo por nuestra biblioteca de más de 100 artículos detallados y nuestro reporte anual sobre amenazas globales, estamos encantados de presentarte nuestra publicación más reciente: la Evaluación de seguridad LLM.
Exploración de las mejores mitigaciones
Las implementaciones de AI generativa y los modelos de lenguaje grandes (LLM) se han adoptado ampliamente en el último año y medio, y algunas empresas quieren implementarlas lo más rápido posible. Esto ha expandido la superficie de ataque y los desarrolladores y equipos de seguridad han quedado sin una guía clara sobre cómo adoptar de forma segura esta tecnología emergente. Es por eso que el equipo de Elastic Security Labs ha elaborado una nueva publicación de investigación para ti y tu organización.
En esta publicación, se explora la seguridad de la AI generativa y los LLM, y se brinda a los equipos de seguridad información crucial para proteger sus implementaciones de LLM, incluidas explicaciones detalladas de los riesgos y las mejores prácticas sugeridas para mitigar los ataques. Desde conocimientos para quienes se inician con los LLM hasta explicaciones detalladas sobre OWASP Top Ten, en esta publicación se exploran y se recomiendan contramedidas para abusos habituales.
Cuando se le preguntó sobre el reporte, Jake King, jefe de inteligencia de seguridad y amenazas de Elastic Security, expresó lo siguiente:
A pesar de todo su potencial, los líderes empresariales han recibido con inquietud la adopción generalizada de LLM, ya que se ve como otra puerta más para que actores maliciosos obtengan acceso a información privada o un punto de apoyo en sus ecosistemas de IT. La publicación de investigaciones de seguridad disponibles abiertamente está en nuestro ADN en Elastic Security. Creemos firmemente que el conocimiento de seguridad es para todos y que la seguridad está en números, y nuestra esperanza es que todas las organizaciones, sean clientes de Elastic o no, puedan aprovechar nuestras reglas, guía e investigación de alta calidad de nuestro equipo.
Las contramedidas exploradas en esta publicación cubren diferentes áreas de la arquitectura empresarial, principalmente controles en el producto que los desarrolladores deben adoptar mientras crean aplicaciones habilitadas para LLM y medidas de seguridad de la información que SOC debe agregar para verificar y validar el uso seguro. Son sugerencias que hemos implementado en Elastic AI Assistant y otros flujos de trabajo impulsados
Para aquellos que buscan ampliar su comprensión de la mitigación de riesgos mientras aprovechan Elastic Security, también hemos presentado varias reglas de detección para mejorar su postura de seguridad actual de LLM, específicamente dirigidas a mitigar los riesgos relacionados con acciones rápidas y de respuesta. Las compartimos de manera abierta y transparente con la esperanza de que estas prácticas demuestren cómo los clientes de Elastic pueden aprovechar nuestra base de conocimientos, así como también nuestras reglas de detección innovadoras.
Desarrollo sobre una base de investigación de amenazas
Con los avances recientes en nuestras reglas de detección y una investigación formal completamente nueva, es importante considerar que los avances en nuestra comprensión de los riesgos provienen de la experiencia obtenida durante meses de investigación en este campo emergente. Esto se ha combinado con nuestro profundo conocimiento de los riesgos de seguridad que afectan a muchos entornos en la actualidad y se ha publicado no solo en nuestro reporte más reciente, sino también en todo nuestro trabajo.
Nuestra perspectiva sobre los riesgos de alto nivel se combina con conocimientos sobre cómo Elastic está posicionando nuestro enfoque en torno a los conceptos tradicionales de ingeniería de detección. Estas y otras ideas están presentes en muchas de nuestras publicaciones de Elastic Security Labs, incluidas:
En Elastic Advances LLM Security with Standardized Fields and Integrations (Elastic hace avanzar la seguridad de LLM con integraciones y campos estandarizados), se explora la creación de flujos de trabajo de integración para reducir la fricción al evaluar la seguridad de LLM y se detalla una nueva integración en AWS Bedrock.
En Embedding Security in LLM Workflows: Elastic's Proactive Approach (Incorporación de seguridad en flujos de trabajo de LLM: Enfoque proactivo de Elastic), se destacan sugerencias y ejemplos de cómo detectar actividades de LLM maliciosas con ES|QL y se propone una solución de telemetría basada en proxy.
Accelerating Elastic detection tradecraft with LLMs (La aceleración del oficio de detección de Elastic con LLM) se centra en nuestra dedicación a la investigación de LLM en el contexto de la optimización de los flujos de trabajo de detección con AI generativa.
Estas y otras publicaciones en nuestro exclusivo blog tienen como objetivo informar, inspirar y preparar a nuestra audiencia para lo que está por venir.
Protege a tu organización
Elastic Security Labs se dedica a brindar investigaciones de seguridad cruciales y oportunas a la comunidad de inteligencia, independientemente de si es cliente de Elastic o no. Cuando normalizamos y estandarizamos, hacemos que la industria sea más segura para todos, que es exactamente lo que pretendemos hacer con esta investigación.
Para nuestros clientes, nuestro repositorio de reglas de detección está disponible para ayudarlos a monitorear con confianza lo más rápido posible. Ahora incluye las implementaciones de LLM. Estas reglas se crean y mantienen públicamente según la dedicación de Elastic a la transparencia.
Es un buen día para arruinar a un actor de amenazas. Consulta el reporte gratuito.
El lanzamiento y la programación de cualquier característica o funcionalidad descrita en este blog quedan a la entera discreción de Elastic. Puede que alguna característica o funcionalidad que no esté disponible actualmente no se proporcione a tiempo o no se proporcione en absoluto.
En esta publicación de blog, es posible que hayamos usado o mencionado herramientas de AI generativa de terceros, que son propiedad de sus respectivos propietarios y operadas por estos. Elastic no tiene ningún control sobre las herramientas de terceros, y no somos responsables de su contenido, funcionamiento o uso, ni de ninguna pérdida o daño que pueda resultar del uso de dichas herramientas. Tenga cautela al usar herramientas de AI con información personal, sensible o confidencial. Cualquier dato que envíe puede ser utilizado para el entrenamiento de AI u otros fines. No existe garantía alguna de que la información que proporcione se mantenga protegida o confidencial. Es conveniente que se familiarice con las prácticas de privacidad y los términos de uso de cualquier herramienta de AI generativa antes de usarla.
Elastic, Elasticsearch, ESRE, Elasticsearch Relevance Engine y las marcas asociadas son marcas comerciales, logotipos o marcas comerciales registradas de Elasticsearch N.V. en los Estados Unidos y otros países. Todos los demás nombres de empresas y productos son marcas comerciales, logotipos o marcas comerciales registradas de sus respectivos propietarios.