Informação é com a gente!

13 de outubro de 2025

Informação é com a gente!

13 de outubro de 2025

IA: empresas buscam modelos de gestão inovadores

peixe-post-madeirao
peixe-post-madeirao
Jornal Madeirão - 12 anos de notícias

Últimas notícias

08/10/2025
Aviso de licitação: Pregão eletrônico – licitação n. 90011/2025 – menor preço global
02/10/2025
Publicação legal: Termo de Homologação – Pregào 9009/2025
01/10/2025
Termo de Anulação – Processo Administrativo nº: 72868/2024
01/10/2025
Aviso de dispensa de licitação – PROCESSO ADMINISTRATIVO Nº: 79818/2025
09/09/2025
Publicação legal: Aviso de reagendamento de licitação – 90010/2025
08/09/2025
Aviso de reagendamento de licitação – processo 72868/2024
01/09/2025
Aviso de reagendamento de licitação: processo administrativo 77824/2025
27/08/2025
Publicação Legal: Aviso de Licitação – Processo Administrativo Nº 72868/2024
27/08/2025
Publicação Legal: Aviso de Reagendamento de Licitação – Processo Administrativo Nº 77824/2025
25/08/2025
Publicação legal: Aviso de Reagendamento de Licitação Ampla Participação

Imagem: geralt via pixabay

Peter Kreslins, especialista em ciência da computação e cofundador da startup Digibee, chama a atenção para um ponto crucial na crescente adoção de inteligência artificial (IA) pelas empresas. Em artigo recente, ele destaca que, embora a IA traga a promessa de automatizar tarefas e aumentar a produtividade, a falta de governança e planejamento pode gerar sérios problemas.

Kreslins observa que os computadores agora conseguem interagir com outros modelos de IA, automatizando processos de forma cada vez mais complexa. No entanto, essa autonomia, se não for bem controlada, pode levar a resultados inesperados e até mesmo prejudiciais. Muitas empresas estão correndo para adotar novas tecnologias por medo de ficar para trás (o chamado FOMO – fear of missing out), mas essa pressa pode ser perigosa.

“Dar esse passo sem entender como esses novos modelos funcionam pode trazer problemas de governança e até afetar a saúde financeira da empresa”, alerta o especialista. À medida que a IA evolui, a velocidade da transformação aumenta, e o risco de uso descuidado de ferramentas como os agentes de IA se torna maior.

Historicamente, a automação seguia um processo claro: definir a tarefa, implementar, automatizar e, finalmente, escalar. No entanto, com o surgimento dos LLMs (large language models), como ChatGPT e Gemini, essa lógica mudou. Esses modelos, treinados com enormes quantidades de dados, são capazes de prever resultados e gerar textos, softwares e imagens de forma autônoma. Mas essa capacidade vem com um preço: a imprevisibilidade.

“Quem faz uma pergunta para um desses modelos pode receber uma resposta inesperada, porque o sistema se baseia em previsões estatísticas e não compreende o significado do que está produzindo”, explica Kreslins. Para que a IA seja adotada em larga escala, é preciso estabelecer um nível de governança, expectativas claras e um direcionamento alinhado com os objetivos da organização.

“Os sistemas e agentes de IA precisam ser treinados com cuidado, respeitando as políticas da empresa, que devem atuar como barreiras de proteção”, enfatiza o especialista. Em outras palavras, é fundamental garantir que a IA seja usada de forma responsável e ética, evitando riscos e maximizando os benefícios.

Sobre o autor: Osíris M. Araújo da Silva é economista, escritor, membro do Instituto Geográfico e Histórico do Amazonas (IGHA) e da Associação Comercial do Amazonas (ACA). Este conteúdo é de responsabilidade do colunista.