Blog

Regulamentação da Inteligência Artificial: a importância de sistemas fechados e responsáveis

Com o avanço das discussões no Congresso Nacional sobre a regulamentação da inteligência artificial (IA), um ponto crucial tem emergido: a distinção entre sistemas abertos e fechados. Essa distinção não é meramente técnica, mas também envolve questões de segurança, responsabilidade e o impacto das alucinações artificiais em contextos críticos.

Modelos abertos de IA, como os amplamente utilizados em plataformas de comunicação e busca, têm sido alvo de críticas devido às chamadas alucinações artificiais. Essas ocorrem quando a IA apresenta respostas incorretas ou desconexas, aparentando ser verdadeiras. As causas variam desde limitações no treinamento e dados contaminados até a falta de verificação de fatos. E esta falta de curadoria é um dos maiores problemas dos modelos de larga escala, pois podem usar dados tendenciosos e gerar vieses críticos.

Por exemplo, o recente chatbot de IA da Meta no WhatsApp demonstrou o problema ao fornecer respostas imprecisas, destacando os desafios de sistemas treinados em dados amplos e não monitorados. Situações como essa reforçam a necessidade de regulamentos que exijam maior controle sobre as aplicações abertas, principalmente quando os erros podem levar a consequências graves.

A Segurança dos sistemas fechados

Em contrapartida, os sistemas fechados, como os desenvolvidos pela Dígitro Tecnologia , representam uma alternativa mais segura e responsável. Esses sistemas são instalados diretamente nos clientes e projetados para atender demandas específicas, reduzindo significativamente o risco de alucinações e desvios.

Ao operar em um ambiente controlado, é possível:

  • Blindar o acesso a dados irrelevantes ou contaminados.
  • Monitorar e corrigir erros rapidamente.
  • Garantir a responsabilidade no uso da IA em aplicações críticas, como segurança pública e defesa.

Essa abordagem é particularmente relevante em casos onde a precisão é fundamental. Por exemplo, na recuperação de ativos financeiros, no auxilio à elucidação de um ilícito, ou na tomada de decisões estratégicas, um erro de interpretação ou uma alucinação poderia gerar prejuízos irreversíveis.

Responsabilidade no uso da IA

A regulamentação em andamento no Congresso Nacional busca garantir que a IA seja utilizada de forma ética e transparente, protegendo os direitos humanos e prevenindo abusos. No entanto, é essencial que as leis também incentivem o uso de soluções tecnológicas seguras e responsáveis, como os sistemas fechados.

O recente caso de um sistema de IA militar internacional que tomou uma decisão autônoma fatal, desconectando-se de operadores humanos, é um alerta para os perigos da falta de controle. Sistemas fechados garantem que as decisões permaneçam sob supervisão humana, alinhando-se ao princípio de centralidade do ser humano preconizado no marco regulatório brasileiro. Afinal, como preconiza a doutrina de inteligência, ela é apoio à decisão, e não tomadora das ações em si.

A regulação da inteligência artificial é uma oportunidade para estabelecer padrões que privilegiam a segurança e a responsabilidade. Embora sistemas abertos tenham sua relevância em aplicações gerais, é fundamental reconhecer o papel dos sistemas fechados em cenários críticos, onde a precisão e a confiabilidade são inegociáveis.

Ao adotar soluções seguras e regulamentos robustos, o Brasil pode liderar o uso responsável da IA, protegendo os cidadãos e garantindo que a tecnologia esteja sempre a serviço da humanidade, e não o contrário.

proteger amazonia

Artigo publicado por: Ivon Eduardo Esser Rosa

Head de Governo, Segurança Pública e Defesa da Dígitro.

Achou este conteúdo útil? Compartilhe!

Fique por dentro

Posts recentes

Associações

Parceiros Estratégicos Dígitro

Fale Conosco

Telefone Matriz

Atendimento ao Cliente

DÍGITRO TECNOLOGIA – TODOS OS DIREITOS RESERVADOS © 2024 | MAPA DO SITE