Nos últimos anos a integridade dos sistemas de inteligência artificial (IA) tem se tornado alvo de preocupação entre os especialistas em segurança cibernética. Dados empíricos e análises de tendências indicam um aumento alarmante nas ameaças potenciais direcionadas a esses sistemas.
Um estudo recente da Check Point Research (CPR) revelou que as atividades criminosas aumentaram no primeiro semestre de 2023, com um aumento de 8% nos ataques cibernéticos semanais globais no segundo trimestre, marcando o maior volume em dois anos. De acordo com o Presidente da Apdados – Associação Nacional dos Profissionais de Privacidade de Dados, Prof. Dr. Davis Alves, essa tendência crescente destaca a urgência de medidas proativas para proteger os sistemas de IA contra ameaças cada vez mais sofisticadas.
Análises de incidentes passados também oferecem informações sobre as vulnerabilidades específicas enfrentadas pelos sistemas de IA. “Por exemplo, o ataque de envenenamento de dados, onde informações maliciosas são inseridas nos conjuntos de dados usados para treinar algoritmos de IA, representa uma ameaça significativa à integridade das análises geradas por esses sistemas”, explica Alves.
Além disso, a natureza complexa dos modelos de IA, como redes neurais profundas, torna-os suscetíveis a ataques de adversários que exploram falhas nas arquiteturas e nos algoritmos subjacentes. “Pesquisas recentes demonstraram a viabilidade de ataques de manipulação de modelos, nos quais pequenas perturbações nos dados de entrada resultam em alterações significativas nos resultados gerados pelos sistemas de IA”, acrescenta o especialista.
Medidas preventivas são essenciais para mitigar os riscos de ataques cibernéticos em sistemas de inteligência artificial. Conheça algumas dicas do profissional para se proteger:
1. Atualize regularmente os sistemas de IA:
Mantenha os sistemas e software de IA atualizados com as últimas correções de segurança e patches disponíveis para garantir que as vulnerabilidades conhecidas sejam corrigidas.
2. Implemente autenticação forte:
Utilize medidas de autenticação multifatorial para garantir que apenas usuários autorizados tenham acesso aos sistemas de IA e aos dados sensíveis.
3. Monitore constantemente a atividade suspeita:
Estabeleça sistemas de monitoramento contínuo para identificar e responder rapidamente a atividades suspeitas nos sistemas de IA, como acesso não autorizado ou tentativas de manipulação de dados.
4. Eduque-se:
Participe de treinamentos regulares de conscientização em segurança cibernética, entendendo práticas seguras de uso e os riscos associados a comportamentos inadequados.
5. Faça backup regularmente:
Mantenha cópias de backup dos dados críticos dos sistemas de IA em locais seguros e isolados, para garantir a recuperação rápida em caso de comprometimento dos sistemas principais.
Adotar uma abordagem de segurança cibernética é fundamental para proteger os sistemas de inteligência artificial contra ameaças crescentes e garantir sua integridade e confiabilidade contínuas em um mundo digitalizado em constante evolução.
Davis irá apresentar mais informações sobre como se proteger na palestra “Ataques Hackers em Tempo de Inteligência Artificial” no seminário multidisciplinar online e gratuito do CPAH – Centro de Pesquisa e Análises Heráclito “Business & Health”, no dia 27 de abril.