Inovação

Black Box problem: um novo desafio para a Inteligência Artificial

5 de Maio de 2021

por Gabriela

Tempo de leitura:

Voltar

Entenda o que é o problema da caixa preta e por que ele está se tornando um obstáculo para a implantação de ferramentas de IA nas empresas

É seguro afirmar que, hoje em dia, muitas empresas voltadas para resultados utilizam ferramentas de Inteligência Artificial (IA) para automatizar tarefas e, assim, garantir mais eficiência e velocidade às operações.

No entanto, um dos desafios que a IA enfrenta é a confiança e aceitação do público diante das decisões e respostas fornecidas por essas tecnologias. E, o black box problem faz esse obstáculo ficar ainda maior.

Isso porque, as ferramentas baseadas em inteligência artificial não demonstram como funcionam, ou seja, não há como saber explicitamente como e porque chegam a determinadas conclusões.

Nem mesmo os programadores de IA conseguem desvendar essa ofuscação, que gera um desconforto quando o assunto é confiar nessa tecnologia. Afinal, tudo o que se sabe é que um algoritmo decidiu que aquela seria a melhor solução.

Portanto, para auxiliar você a entender porque o black box problem é uma preocupação para a IA, quais as causas desse desafio e como reduzir os problemas da caixa preta, continue a leitura deste artigo.

Saiba mais: Inteligência artificial no Brasil: o país está pronto?

A caixa preta da Inteligência Artificial

Como você sabe, no universo da computação, uma caixa preta é um dispositivo, sistema ou programa que permite visualizar os dados de entrada e de saída, mas não fornece uma visão dos processos e nem do funcionamento entre eles.

E isso pode gerar bastante desconfiança, porque não há como saber o que exatamente é aprendido e como isso é feito. Ou seja, não é possível ver as saídas entre as camadas, somente a conclusão.

As ferramentas mais comuns que sofrem com o black box problem são as que utilizam redes neurais artificiais ou deep learning, na tradução literal, aprendizado profundo.

Portanto, o que se questiona é: se não tem como entender a maneira que as ferramentas de IA tomam determinadas decisões, como saber se elas estão no caminho certo?

Confira ainda: Quais os principais riscos da inteligência artificial?

O problema da caixa preta da IA

Podemos entender que à medida que as ferramentas de IA tornam-se mais presentes em nossas vidas, auxiliando empresas e profissionais de diferentes setores, o impacto de suas decisões se torna mais sério.

As funções de IA estão desempenhando um papel importante na sociedade, como, por exemplo, auxiliando bancos a saber se um cliente está apto a receber empréstimo ou ajudando o médico a prever se um paciente precisa de determinado tratamento.  

No entanto, assim como os seres humanos, a inteligência artificial também pode cometer erros.

E justamente por definir situações bastante relevantes para instituições e pessoas, atualmente, é que surgem preocupações éticas e morais ao ignorarmos o black box problem na IA

Por não conter um código moral intrínseco na tecnologia, as ferramentas que utilizam a inteligência artificial não fazem assimilações éticas como os humanos.

Sendo assim, ao produzir um determinado resultado imoral ou antiético, a inteligência artificial não irá perceber. E, por esse motivo, é tão desconfortável não entender o raciocínio por trás do resultado.

A partir dessa lógica, surgem os questionamentos da sociedade e um desafio para as empresas.

Como confiar que a decisão da IA é a melhor? As pessoas se sentirão confortáveis com o uso dessa tecnologia em análises subjetivas até que os resultados sejam interpretáveis?

Veja: 6 desafios mais comuns em projetos com IA

Resolvendo o problema da caixa preta 

Com o problema da caixa preta de IA se tornando uma preocupação cada vez maior entre os especialistas de Inteligência Artificial, por ser um obstáculo para a adoção da tecnologia, desenvolvedores do mundo inteiro estão voltando sua atenção para tentar resolvê-lo.

Muitos deles acreditam que a resposta está na IA explicável e IA interpretável, ou seja, ferramentas de inteligência artificial que produzem resultados que um ser humano consegue entender e explicar o processo.

Entretanto, há uma confusão entre os termos IA explicável e IA interpretável, que deve ser esclarecido, pois há uma diferença fundamental entre eles.

IA interpretáveis são algoritmos que fornecem uma explicação dos processos de tomada de decisão. Muitos algoritmos de machine learning, por exemplo, são interpretáveis.

Em contrapartida, IA explicáveis são ferramentas que se aplicam a algoritmos que não fornecem uma explicação clara de suas decisões.

Assim, pesquisadores, desenvolvedores e usuários contam com essas ferramentas e técnicas auxiliares para compreender a lógica usada nos modelos de IA de caixa preta.

De todo modo, essas funcionalidades ainda não estão disponíveis no mercado e até lá o black box problem sugere cautela com a IA em determinados níveis e para certos propósitos. 

Ou seja, as decisões críticas baseadas em inteligência artificial devem ser tratadas como sugestões para decisões humanas e não como respostas definitivas.

Leia também: criar inteligência artificial ou comprar?

Black Box problem e a transparência 

Devido ao black box problem, muitas empresas passaram a ocultar os detalhes de seus sistemas de inteligência artificial por motivos comerciais, para acima de tudo ter vantagens competitivas no mercado.

No entanto, esse modelo de negócio, embora maximize o lucro da empresa que desenvolve o sistema de IA, nada faz para minimizar os danos que pode causar ao usuário final.

Isso acontece, geralmente, porque há um conflito de responsabilidade no uso de modelos de caixa preta para decisões de alto risco.

E, essa tendência é bastante preocupante para setores como instituições financeiras, saúde e justiça, pela possibilidade de falhas.

Inclusive, por isso, especialistas e estudiosos da área acreditam que a transparência desses sistemas podem de fato ajudar a melhorá-lo, revelando suas falhas e gerando a possibilidade de repará-las.

E, essa é uma abordagem cada vez mais adotada em empresas de engenharia de softwares, que estão substituindo a cultura de segurança pela obscuridade pela transparência de códigos abertos.

Afinal, até onde sabemos, os algoritmos não conseguem fazer análises subjetivas. E, se a tecnologia surgiu para auxiliar a sociedade nos seus problemas do dia a dia, especialistas acreditam que ela deve ser clara e transparente.

Como usar a IA no relacionamento com o cliente?

Como reduzir os problemas da Inteligência artificial?

A forma mais eficiente de reduzir os problemas da IA no seu negócio é garantir a existência de uma auditoria especializada com profissionais de TI experientes.

Afinal, os aprendizados e treinamentos precisam ser revisados e atualizados com frequência para refinar os processos.

Quem atua com projetos de IA sabe da importância de acompanhar os algoritmos e estabelecer formas de controle durante seu ciclo, desde a coleta de dados até a aplicação. 

Para isso, é importante também que a empresa tenha processos de vigilância claros para monitorar os resultados e garantir, sempre que necessário, a validade das informações, a fim de manter a qualidade dos dados.

Além disso, é necessário que líderes da empresa tenham total conhecimento e interesse sobre o funcionamento das novas tecnologias, de modo a poder monitorar o aumento de seu poder de influência sobre os usuários e não depender de caixas pretas sobre as quais não há como fiscalizar internamente.

Dessa forma, com essas medidas, você, gestor, provavelmente, irá conseguir ter as suas estruturas e modelos baseados em inteligência artificial sob controle

Assim, consequentemente, torna-se muito mais difícil que essa tecnologia traga problemas nos seus processos

Confira também: Visão computacional: por que você precisa mirar nessa área de IA

Reflexões sobre a caixa preta da IA

Com todo o exposto, podemos concluir que os algoritmos de inteligência artificial trazem às empresas inúmeras possibilidades de otimização de trabalho e personalização de experiência aos clientes.

Entretanto, a IA também traz riscos e desafios que precisam ser conhecidos e considerados antes de sua adoção. E, um deles é o black box problem.

Afinal, profissionais de tecnologia trabalham para que os algoritmos usados estejam sujeitos a critérios de avaliação justos. No entanto, para que isso aconteça é preciso que eles sejam claros e transparentes.

Concluímos, portanto, que é fundamental inovar, mas também é preciso questionar e contar com profissionais de TI que não queiram apenas automatizar pela simples automação, mas, que encontrem soluções personalizadas e éticas para a sua empresa.

Para auxiliar na sua jornada de transformação digital, conte com um parceiro que vai além de suas expectativas

Conheça a Supero Tecnologia e saiba mais sobre nossas soluções sob demanda, focadas para atender as necessidades do seu negócio.















Escrito por Gabriela

Outras Postagens

Crie soluções personalizadas e integradaspara todas as áreas da sua empresa

Quero Saber mais

Fique Atualizado Assine nossa Newsletter

Oportunidades Participe dos melhores projetos!

Se você está em busca de um ambiente descontraído, cheio de oportunidades de crescimento e em constante evolução, confira as oportunidades!

Saiba Mais

Cadastro por interesse

Nosso time está pronto para entender o seu negócio e auxiliá-lo a encontrar a melhor solução.

Deixe seu melhor e-mail abaixo que entraremos em contato.

Indique este post para alguém...

Inscreva-se em nossa newsletter.