Quando seu colega de equipe é uma máquina: 8 perguntas que os CISOs deveriam fazer sobre IA

Notícias

LarLar / Notícias / Quando seu colega de equipe é uma máquina: 8 perguntas que os CISOs deveriam fazer sobre IA

Jul 07, 2023

Quando seu colega de equipe é uma máquina: 8 perguntas que os CISOs deveriam fazer sobre IA

A inevitabilidade da IA ​​está forçando muitos líderes de segurança cibernética a decidir se ela é amiga ou inimiga. Tratá-lo como um colega de equipe pode ser a solução definitiva, mas há uma série de questões pontuais que os CISOs

A inevitabilidade da IA ​​está forçando muitos líderes de segurança cibernética a decidir se ela é amiga ou inimiga. Tratá-lo como um colega de equipe pode ser a solução definitiva, mas há uma série de perguntas específicas que os CISOs deveriam fazer.

A inteligência artificial está a mudar a forma como fazemos quase tudo: para onde quer que nos voltemos, as máquinas realizam tarefas que no passado seriam realizadas por um ser humano. Essas instâncias alimentadas por IA abrangem desde veículos autônomos até bots de atendimento ao cliente que devem ser navegados antes que um humano entre na linha. Na segurança cibernética, a IA tornou-se rapidamente uma amiga e um multiplicador de forças para os adversários. Goste ou não, ver a máquina como uma companheira de equipe tornou-se uma realidade que os CISOs terão que aprender a abraçar, mas eles deveriam fazer uma série de perguntas antes de contratar um companheiro de IA.

O conceito não é novo. Em 2019, uma equipe internacional de 65 cientistas colaborativos gerou 819 questões de pesquisa sobre o tema com a intenção de "fornecer uma agenda de pesquisa que os pesquisadores de colaboração possam usar para investigar os efeitos previstos de máquinas projetadas por colegas de equipe com base nas opiniões qualificadas de pesquisadores de colaboração". Sem dúvida, alguns dos pontos de pesquisa desenvolvidos pela equipe de cientistas colaborativos chegaram aos princípios e orientações de IA responsável do Departamento de Defesa dos EUA, que capturaram cinco pontos de dados que qualquer IA deve ser antes de ser aceitável para uso: responsável, equitativo, rastreável, confiável e governável.

Para imaginar o conceito de IA como companheira de equipa em acção, basta olhar para o plano da Força Aérea dos EUA para aumentar a eficácia do seu avião de combate multifuncional F-35, emparelhando-o com drones de batalha que funcionam como alas autónomos. Trabalhando com drones aprimorados com IA, a aeronave pode acumular informações em velocidades além das capacidades humanas. Isso faz com que "o movimento através do loop observar, orientar, decidir, agir (OODA) seja rápido e ágil, o que por sua vez permite que o destinatário de informações em tempo real seja mais hábil", de acordo com JR Seeger, oficial aposentado da CIA e romancista. .

A IA se tornará efetivamente uma extensão dos processos de automação e poderá revelar uma amplitude e amplitude de informações amplamente expandidas, ajudando a avaliar complexidades em velocidades cada vez maiores, afirma Anurag Gurtu, CEO da StrikeReady. “A IA funciona melhor quando o CISO procura aumentar a sua produtividade, aumentar as capacidades de um analista qualificado, aliviar uma parte da carga de trabalho e reter funcionários”, diz Gurtu.

Embora muitas vezes pareça que estamos com o pé no “pedal no metal e sem freios”, diz Gurtu, “a IA também auxilia na capacidade de exercitar o processo em velocidade e melhora a tarefa de detecção e pode ser ajustada para fornecer o analista com uma probabilidade de evento de ser alvo ou atacado."

No passado, as árvores de decisão e os modelos baseados em regras tornavam a detecção de ameaças e vulnerabilidades um processo bastante trabalhoso, mas “com a IA podemos trazer conjuntos de dados díspares e melhorar a ‘explicabilidade’ do analista”, diz Gurtu, acrescentando que o modelo interpretável local- explicações agnósticas (LIME) e SHAP (Shapley Additive exPlanations) ajudam na tarefa de explicabilidade.

“Cada vez mais entidades estão incorporando IA generativa e devem estar preparadas para um aumento nas ‘alucinações’ e, à medida que mais o fazem, alucinações massivas estão surgindo”, diz Gurtu. O meio para evitar alucinações nos resultados da IA ​​generativa é o uso de um modelo de linguagem de IA gráfica, diz ele.

Para ilustrar este ponto, basta olhar para um relatório recente de um advogado apresentado a um tribunal, escrito com a ajuda de um chatbot de IA que “alucinava” uma jurisprudência inexistente quando não conseguia encontrar exemplos do mundo real. Isso resultou na emissão de uma ordem permanente pelo juiz para que qualquer documento criado usando IA fosse identificado e verificado por um ser humano. “Utilizando a metodologia gráfica, a IA dá ao usuário extremo poder de compreensão do contexto”, diz Gurtu. "Sem isso, como observado, [o resultado são] alucinações massivas."