Elastic Security Labs lança orientações para evitar riscos e abusos nos LLMs
Elastic Security Labs lança o guia definitivo para segurança na adoção dos LLMs com recomendações de mitigação e contramedidas de segurança da informação
O Elastic Security Labs tem como objetivo democratizar o conhecimento e apoiar você na luta contra agentes de ameaças. Mais conhecido por nossa biblioteca de mais de 100 artigos detalhados e por nosso Relatório Global de Ameaças lançado anualmente, o Elastic Security Labs tem o prazer de apresentar a você nossa mais nova publicação: a Avaliação da segurança dos LLMs!
Explorando as melhores mitigações
As implementações de IA generativa e de grandes modelos de linguagem (LLMs) foram amplamente adotadas no último ano e meio, com algumas empresas pressionando para implementá-los o mais rápido possível. Isso expandiu a superfície de ataque e deixou os desenvolvedores e as equipes de segurança sem orientações claras sobre como adotar essa tecnologia emergente de forma segura. É por isso que a equipe do Elastic Security Labs preparou esta nova publicação de pesquisa para você e sua organização.
A publicação aborda a segurança da IA generativa e dos LLMs, fornecendo às equipes de segurança informações cruciais para proteger suas implementações de LLM, incluindo explicações detalhadas dos riscos e sugestões de práticas recomendadas para mitigar ataques. Desde insights para quem está começando a trabalhar com LLMs até explicações detalhadas sobre os Top Ten da OWASP, a publicação apresenta e recomenda contramedidas para abusos comuns.
Quando questionado sobre o relatório, Jake King, head de inteligência de ameaças e segurança da Elastic Security, disse:
Apesar de todo o seu potencial, a ampla adoção do LLM tem sido recebida com desconforto pelos líderes empresariais. O LLM é visto como mais uma porta para atores maliciosos obterem acesso a informações privadas ou uma posição segura nos ecossistemas de TI. Publicar trabalhos de pesquisa de segurança disponíveis abertamente está no nosso DNA no Elastic Security — acreditamos firmemente que o conhecimento sobre segurança é para todos, e a segurança está nos números. Nossa esperança é que todas as organizações, sejam clientes da Elastic ou não, possam tirar proveito das regras, orientações e pesquisas de alta qualidade elaboradas pela nossa equipe.
As contramedidas apresentadas nesta publicação abrangem diferentes áreas da arquitetura empresarial, principalmente controles integrados ao produto que os desenvolvedores devem adotar ao criar aplicações habilitadas para LLM e medidas de segurança da informação que o SOC deve adicionar para verificar e validar o uso seguro dos LLMs. São sugestões que implementamos no Elastic AI Assistant e em outros fluxos de trabalho orientados por IA que estão no pacote de produtos da Elastic.
Para aqueles que desejam ampliar sua compreensão sobre mitigação de riscos e fazer uso do Elastic Security, também introduzimos várias regras de detecção para melhorar sua postura atual de segurança dos LLMs, visando especificamente à mitigação de riscos em torno de ações de prompts e respostas. Compartilhamos isso de maneira aberta e transparente, na esperança de que essas práticas demonstrem como os clientes da Elastic podem aproveitar nossa base de conhecimento, bem como nossas regras de detecção prontas para uso.
Conhecimento embasado por pesquisas sobre ameaças
Com os avanços recentes nas nossas regras de detecção e pesquisas formais totalmente novas, é importante considerar que os avanços na nossa compreensão dos riscos derivam da experiência adquirida ao longo de meses de pesquisas nesse campo emergente. Essa experiência foi combinada com nossa profunda compreensão dos riscos de segurança que afetam muitos ambientes atualmente e publicada não apenas no nosso relatório mais recente, mas também em todo o nosso trabalho.
Nossa perspectiva sobre os riscos gerais alia-se a insights de como a Elastic está posicionando nosso foco em torno de conceitos tradicionais de engenharia de detecção. Essas e outras ideias estão presentes em muitas das publicações do Elastic Security Labs, incluindo:
Elastic Advances LLM Security with Standardized Fields and Integrations (Elastic promove avanços na segurança dos LLMs com campos e integrações padronizados) — explora a criação de fluxos de trabalho de integração para reduzir o atrito ao avaliar a segurança dos LLMs e detalha uma nova integração com o AWS Bedrock
Embedding Security in LLM Workflows: Elastic's Proactive Approach (Incorporando segurança nos fluxos de trabalho dos LLMs: a abordagem proativa da Elastic) — destaca sugestões e exemplos de como detectar atividades maliciosas nos LLMs com o ES|QL e propõe uma solução de telemetria baseada em proxy
Accelerating Elastic detection tradecraft with LLMs (Acelerando a habilidade de detecção da Elastic com LLMs) — concentra-se na nossa dedicação à pesquisa de LLMs no contexto da simplificação dos fluxos de trabalho de detecção com IA generativa
Essas e outras publicações no nosso blog exclusivo têm como objetivo informar, inspirar e preparar nosso público para o que está por vir.
Proteja sua organização
O Elastic Security Labs se dedica a fornecer pesquisas sobre segurança cruciais e oportunas para a comunidade de inteligência, sejam clientes da Elastic ou não. Quando normalizamos e padronizamos, tornamos o setor mais seguro para todos — que é exatamente a nossa intenção com esta pesquisa.
Para nossos clientes, temos o repositório de regras de detecção para ajudar a monitorar com confiança e agilidade. Agora, ele inclui suas implementações de LLM. Essas regras são criadas e mantidas publicamente em alinhamento com a dedicação da Elastic à transparência.
Todo dia é um bom dia para frustrar um agente de ameaça, não acha? Confira o relatório gratuito.
O lançamento e o tempo de amadurecimento de todos os recursos ou funcionalidades descritos neste post permanecem a exclusivo critério da Elastic. Os recursos ou funcionalidades não disponíveis atualmente poderão não ser entregues dentro do prazo previsto ou nem chegar a ser entregues.
Neste post do blog, podemos ter usado ou nos referido a ferramentas de IA generativa de terceiros, que pertencem a seus respectivos proprietários e são operadas por eles. A Elastic não tem nenhum controle sobre as ferramentas de terceiros e não temos nenhuma responsabilidade por seu conteúdo, operação ou uso nem por qualquer perda ou dano que possa surgir do uso de tais ferramentas. Tenha cuidado ao usar ferramentas de IA com informações pessoais, sensíveis ou confidenciais. Os dados que você enviar poderão ser usados para treinamento de IA ou outros fins. Não há garantia de que as informações fornecidas serão mantidas em segurança ou em confidencialidade. Você deve se familiarizar com as práticas de privacidade e os termos de uso de qualquer ferramenta de IA generativa antes de usá-la.
Elastic, Elasticsearch, ESRE, Elasticsearch Relevance Engine e marcas associadas são marcas comerciais, logotipos ou marcas registradas da Elasticsearch N.V. nos Estados Unidos e em outros países. Todos os outros nomes de empresas e produtos são marcas comerciais, logotipos ou marcas registradas de seus respectivos proprietários.