
O avanço da Inteligência Artificial inaugura um período singular, no qual a cognição artificial passa a ser também motor da própria inovação. Esse movimento acelera o ritmo das transformações e exige uma revisão da forma como líderes percebem tempo, aprendizado e tomada de decisão.
Para gestores, o impacto da IA não é incremental. Ele exige reposicionamento imediato: liderar deixa de ser apenas gerir pessoas e passa a ser gerir a interação entre cognição humana e artificial.
A seguir, não apenas reflexões, mas decisões que precisam ser endereçadas agora.
IA é competência institucional, não projeto de TI
A adoção de IA deve ser tratada como uma capacidade organizacional. Isso implica preparar não apenas a tecnologia, mas também Recursos Humanos, jurídico, áreas assistenciais e operacionais para um novo modelo de trabalho mediado por IA.
Mais do que ensinar o uso, é necessário estruturar como essas áreas interagem com quem utiliza a tecnologia, com quais limites, responsabilidades e critérios de decisão.
A ordem importa: governança antes da escala.
Sem isso, a organização ganha velocidade, mas perde controle.
Equidade digital
A incorporação da IA precisa ser guiada por equidade digital concreta: quem tem acesso, quem consegue utilizar e quem efetivamente se beneficia.
Isso exige decisões explícitas sobre priorização, desenho de experiência, proteção de dados e mitigação de vieses. Não se trata apenas de ampliar acesso, mas de garantir que o uso da tecnologia não amplifique desigualdades existentes: clínicas, operacionais ou informacionais.
O paciente mudou
Estudos recentes indicam uma mudança relevante no uso da IA generativa: de aplicações predominantemente técnicas e produtivas para usos voltados a suporte emocional, saúde mental e orientação cotidiana.
Isso redefine o ponto de partida da jornada. O paciente passa a chegar mais informado, mais ansioso por validação e, muitas vezes, já acompanhado por uma “segunda opinião” algorítmica.
A questão deixa de ser se a IA estará presente e passa a ser como a instituição responde a um paciente que já a utiliza.
O paradoxo clínico: tecnologia avançada, resultado nem sempre melhor
Modelos de linguagem já demonstram desempenho competitivo em raciocínio diagnóstico em cenários controlados. No entanto, a combinação entre médico e IA não garante, por si só, melhores resultados.
Estudos recentes mostram que o uso de ferramentas de IA por profissionais não necessariamente melhora a tomada de decisão em casos complexos. Um dos fatores centrais é a qualidade da interação, a forma como perguntas são estruturadas.
O risco não está apenas na limitação da tecnologia, mas na interface humano-computador.
Sem evolução nesse ponto, a organização investe em capacidade, mas não captura valor.
Protegendo a cognição humana: o risco do misskilling e do never skilling
Talvez o risco mais silencioso da IA não seja o erro da máquina, mas o enfraquecimento da competência humana.
Misskilling ocorre quando profissionais passam a aprender a partir dos vieses da IA.
Never-skilling surge quando determinadas competências deixam de ser desenvolvidas porque a tecnologia assume o processo desde o início.
Em ambos os casos, há perda progressiva de autonomia cognitiva.
A analogia com a aviação é direta: pilotos altamente automatizados ainda treinam voo manual para cenários de falha. Na saúde, a preservação da cognição clínica deve seguir a mesma lógica.
Eficiência sem preservação de competência é um ganho de curto prazo com custo estrutural.
A liderança na era da IA exige abertura para novas possibilidades, mas, sobretudo, disciplina na forma de estruturar, governar e proteger o que não pode ser delegado.
O desafio não é adotar a tecnologia. É fazê-lo sem perder aquilo que sustenta a decisão.
Lilian Quintal Hoffmann
Diretora Executiva de Tecnologia no Hospital Care




