Houve um tempo em que interagir com a inteligência artificial era uma atividade restrita às pessoas especialistas em programação e estatística. Modelos precisavam ser construídos do zero, dados eram tratados manualmente, algoritmos precisavam ser ajustados em ciclos longos de testes, validações e experimentações. Mas esse tempo passou.
Hoje, com o avanço da IA Generativa, como o ChatGPT (OpenAI), Gemini (Google) e Azure (OpenAI), basta abrir uma aba no navegador, digitar uma pergunta em linguagem natural e, como em um passe de mágica, uma resposta completa, estruturada e aparentemente confiável aparece.
É tentador pensar que a IA finalmente ficou simples. Mas será que simplificou mesmo? Vamos começar a nossa conversa do começo…
O que é IA?
Inteligência Artificial (IA) é o campo da ciência da computação que desenvolve sistemas capazes de realizar tarefas que normalmente exigiriam “inteligência” humana, como compreender linguagem, reconhecer padrões, tomar decisões ou aprender com a experiência. O conceito surgiu oficialmente na década de 1950, com o cientista Alan Turing propondo a ideia de máquinas capazes de “pensar”. Em 1956, durante a conferência de Dartmouth, o termo “Inteligência Artificial” foi formalizado por John McCarthy e outros pioneiros.
Nas décadas seguintes, a IA passou por ciclos de avanços e invernos (períodos de descrença e cortes de financiamento), evoluindo de regras lógicas e simples para redes neurais e, mais tarde, para o aprendizado profundo (deep learning). Esse avanço foi possível graças ao aumento exponencial do poder computacional, à coleta massiva de dados e ao desenvolvimento de algoritmos cada vez mais sofisticados.
Dentro dessa trajetória, surge a IA Generativa — um salto transformador. Diferente das IAs tradicionais que apenas classificam, detectam ou recomendam, a IA Generativa é capaz de criar novos conteúdos: textos, imagens, códigos, sons e até vídeos, a partir de comandos em linguagem natural. Ela se apoia em modelos gigantescos chamados LLMs (Large Language Models), treinados com trilhões de palavras, códigos e interações humanas. Ferramentas como o ChatGPT, Gemini e Claude representam esse novo capítulo: uma IA que não só interpreta, mas que concria com humanos, rompendo as fronteiras entre dados e imaginação.
Qual o diferencial da IA Generativa?
O grande diferencial é que a IA Generativa entende a intenção por detrás do que você escreve, e responde como se fosse uma pessoa, mas o poder de bilhões de parâmetros e memória contextual.
E qual seu papel nisso tudo?
Bom, se você está aqui, participando de uma Sprint sobre IA Generativa, muito provavelmente não é simplesmente uma pessoa usuária de IA. Não está apenas testando uma IA por curiosidade e não é uma usuária ocasional. Você está criando soluções, escolhendo qual modelo usar, codificando a integração via API, decidindo quais dados entram no sistema, como são processados e o que espera como resultado. Em resumo, você está moldando o comportamento da IA que será usada em seu contexto profissional. E isso demanda responsabilidade técnica, ética e estratégica.
Simples por fora, complexo por dentro
O que parece simples na interface gráfica — aquela caixinha de texto tão acolhedora que nos convida a conversar — esconde uma engrenagem poderosa e altamente sofisticada. A facilidade com que interagimos com sistemas como o ChatGPT, Gemini ou Claude mascara a complexidade brutal que sustenta essas tecnologias.
Por trás de uma simples pergunta respondida em segundos, existem modelos de linguagem com bilhões de parâmetros, construídos a partir de arquiteturas avançadas como os transformers, treinados com trilhões de palavras retiradas de múltiplas fontes: sites, livros, códigos, bases públicas e muito mais. Esses modelos funcionam em infraestruturas massivas, rodando sobre centenas de GPUs em ambientes distribuídos e com processos contínuos de aprendizado, ajuste e monitoramento. Nada disso é trivial. Nada disso é neutro. Essas IAs aprendem com dados. Com muitos dados.
E é justamente aí que a pergunta mais importante se impõe: onde estão os nossos dados nessa história?
Engenharia de prompt: a inteligência começa na pergunta
Você provavelmente já está familiarizada com os conceitos da inteligência artificial generativa. Mas, mesmo assim, é sempre valioso revisitarmos esse assunto, especialmente porque estamos entrando em uma fase em que os modelos de linguagem estão mais poderosos, acessíveis e prontos para uso do que nunca.
Modelos como GPT-4, Gemini e Claude estão disponíveis via APIs ou plataformas intuitivas, permitindo que profissionais de diversas áreas explorem seu potencial sem precisar entender cada linha de código envolvida na engrenagem.
No entanto, a nova fronteira da inteligência artificial não está mais apenas nos modelos em si, mas na forma como nos comunicamos com eles. É aqui que a engenharia de prompt se torna protagonista.
Mais do que uma técnica emergente, a engenharia de prompt é uma nova linguagem de programação — só que conversacional. Ela conecta dois universos que, até pouco tempo atrás, pareciam distantes: a complexidade matemática dos modelos e o raciocínio humano aplicado à resolução de problemas.
Trata-se de uma habilidade que exige clareza, intenção e estrutura. Não basta pedir. É preciso saber formular o pedido. Um bom prompt tem o poder de transformar uma IA genérica em uma especialista contextualizada, quase que focada no seu domínio de atuação. Por outro lado, um prompt mal formulado pode comprometer a utilidade da resposta, a segurança do sistema e, em muitos casos, a reputação da empresa ou da pessoa que está por trás da solução.
Prompt não é só comando. É design conversacional com propósito. E verdade seja dita: prompt não é mágica. É engenharia.
E por que isso importa tanto?
Imagine que você esteja trabalhando com dados sensíveis — como registros médicos, documentos jurídicos, estratégias comerciais ou dados pessoais de clientes. Um prompt genérico pode parecer mais rápido ou prático, mas os riscos são reais e relevantes.
Um prompt mal construído pode:
- Expor dados sem critério ou consentimento
- Gerar respostas incorretas ou completamente fantasiosas (as chamadas alucinações)
- Reforçar vieses históricos presentes nos dados de treinamento do modelo
- Violar legislações como a LGPD, o GDPR ou a HIPAA, comprometendo sua conformidade e sua credibilidade
Checklist de boas práticas em Engenharia de prompt
Etapa | Ação recomendada |
---|---|
Definição | Deixe claro seu objetivo. Defina o que espera da IA, como por exemplo, resumo, resposta técnica, comparação, revisão, sugestão etc. |
Contextualização | Especifique se deseja uma lista, um parágrafo, JSON, tabela, bullet points etc. |
Formato de saída | Inclua informações sobre o domínio, público-alvo, setor e linguagem esperada |
Segurança | Evite prompts que exponham dados sensíveis. Inclua controle de escopo e restrições de resposta |
Iteração e testes | Refine o prompt com base em testes reais. Valide com especialistas do domínio |
Documentação | Registre o prompt, contexto, data de uso e feedbacks para futuras iterações |
Governança | Tenha controle sobre quem escreve, aprova e monitora os prompts em produção |
Colaboração | Engaje profissionais de dados, negócio e jurídico no processo de construção dos prompts. |
Exemplos de prompts bons e ruins
Prompt | Avaliação | Observação |
---|---|---|
“Explique LGPD” | Ruim (genérico) | Muito amplo, sem contexto nem profundidade |
“Explique LGPD para gestores de TI de pequenas empresas do setor de saúde” | Bom (claro) | Define público e contexto |
“Liste todos os dados confidenciais da base do cliente” | Ruim (inseguro) | Pode gerar exposição de dados sensíveis. |
“Liste os tipos de dados classificados como sensíveis segundo a LGPD, sem incluir dados reais” | Bom (seguro) | Solicitação técnica, segura e legalmente adequada |
“Gere uma estratégia de marketing” | Ruim (ambíguo) | Não descreve segmento, canal, tom, objetivo |
“Crie uma estratégia de marketing digital para captar lead B2B via LinkedIn no setor financeiro, com tom consultivo.” | Bom (estruturado) | Prompt contextualizado e com direcionamento claro |
Dados + prompt: a nova engenharia da confiança
As pesquisas mais recentes sobre confiabilidade e ética da IA — como o relatório da Stanford CRFM (2024) e o guia da Microsoft Responsible AI— apontam uma verdade essencial: não basta um modelo ser grande. Ele precisa ser orientado por bons dados e boas perguntas.
Os riscos mais críticos da IA generativa não estão apenas no modelo, mas na fragilidade dos dados de entrada e na superficialidade dos prompts usados.
Como evitar isso? Com engenharia de prompt pensada com:
- Governança de dados
- Privacidade e compliance
- Contexto de negócio real
- Boas práticas de linguagem natural
- Prevenção de alucinações (factualidade)
- Explicabilidade das respostas
A IA precisa ser orientada de forma responsável. A confiança não vem só da tecnologia. Vem das escolhas que você faz.
Mas, e os dados?
Eles são o core de qualquer IA, mas antes de chegar a essa discussão, é preciso conversar sobre alguns conceitos.
Ao incluir um modelo como o ChatGPT ou o Gemini em seus sistemas — mesmo que tudo pareça simples, plug-and-play e intuitivo, você precisa saber exatamente:
- De onde vêm os dados que alimentam o modelo?
- Para onde vão os dados que você envia durante o uso?
- Quem pode acessar essas informações?
- Há registros, consentimentos e salvaguardas reais?
Sem essas respostas, você não está apenas usando IA. Você está correndo riscos invisíveis.
A precisão da IA depende dos seus dados
Embora muitas vezes pareça que estamos usando uma IA “genérica”, que responde tudo sobre qualquer coisa, a verdadeira utilidade da inteligência artificial só se revela quando ela é adaptada à realidade do seu negócio, da sua operação, do seu contexto. É aqui que entram os seus dados: eles são a matéria-prima que dá sentido, profundidade e precisão às respostas que os modelos oferecem. E não estamos falando apenas de dados estruturados ou tecnicamente organizados. Estamos falando de tudo aquilo que representa saber da sua empresa:
- Planilhas com históricos de clientes
- Conversas com usuários, e-mails, feedbacks de atendimento
- Imagens de produtos, pessoas ou ambientes
- Contratos, políticas internas, manuais técnicos
- APIs, arquivos JSON, logs operacionais
- Bancos de dados relacionais, NoSQL ou legados
Tudo isso é conhecimento. Tudo isso pode ensinar a IA a entender o que é importante para você. Os dados não são apenas arquivos armazenados. Eles são a ponte entre o que a IA é capaz de fazer e o que ela deve fazer por você.
O segredo: a IA precisa entender e ser entendida
Para que a IA gere respostas verdadeiramente úteis, ela precisa compreender o contexto, os objetivos e as nuances da sua necessidade. E, para isso, você precisa ensiná-la a partir de três pilares fundamentais:
- Instruções claras, seguras e bem formuladas
- Contexto detalhado, que situe a IA na realidade do seu problema com exemplos reais, que funcionam como guias para a linguagem e o formato esperado
- Inclusividade e precisão na construção da pergunta, respeitando seu público e seus limites
Se você disser apenas: “Crie uma mensagem”, o modelo vai criar qualquer coisa, com qualquer tom, para qualquer público. Mas se você disser: “Crie uma mensagem de boas-vindas para um cliente novo, com tom acolhedor, direto e objetivo, explicando as regras do serviço X, que será enviado via WhatsApp”, a mágica acontece.
Na IA — como na vida — quem você não sabe pedir, aceita o que vier.
Mas o que, afinal, a IA entende?
Os modelos de IA generativa não leem arquivos, colunas de planilhas ou parágrafos de contratos da mesma forma que nós. Para que a IA possa interpretar os dados, é necessário transformá-los em estruturas que façam sentido dentro do seu modelo de funcionamento.
E isso nos leva a dois conceitos fundamentais: chunks e embeddings (vetores).
O que são chunks?
“Chunk” significa pedaço. Em IA, um chunk é um trecho de informação segmentado a partir de um conteúdo maior — como um parágrafo de um relatório, uma linha de uma planilha, ou uma seção de um contrato.
Por exemplo:
- Um contrato de 10 páginas pode virar 100 chunks
- Uma tabela com 5.000 linhas pode ser dividida em milhares de mini-instruções
- Uma transcrição de reunião pode ser convertida em blocos temáticos, prontos para indexação
Esses pedaços são indexados em uma base vetorial para que, ao fazer uma pergunta, o modelo possa buscar somente nas partes mais relevantes — em vez de tentar interpretar todo o conteúdo de uma vez.
O que são embeddings?
Embeddings são vetores, ou seja,representações matemáticas do significado. Quando falamos que a IA transforma dados em vetores, estamos dizendo que ela converte o conteúdo (texto, imagem, áudio, código) em sequências numéricas que capturam o sentido do conteúdo.
Essa conversão permite que a IA:
- Compare o que você está perguntando com trechos de documentos, mesmo que use palavras diferentes das utilizadas no original
- Encontre contextos similares, com base no significado e não apenas em palavras-chave
- Busque por semelhança semântica, e não por literalidade
Exemplo: se você pergunta “Como cadastrar um novo cliente?”, o sistema pode encontrar um trecho do seu manual que descreve o “processo de onboarding” mesmo que a expressão exata não esteja presente.
Essa é a base da IA contextualizada: você não precisa dizer exatamente o que está nos seus dados. A IA entende o sentido, desde que os dados estejam vetorizados, indexados e acessíveis via mecanismos inteligentes de busca.
Como a IA Generativa se conecta com dados?
Fica claro, então, que, embora os modelos pareçam saber tudo, eles não têm acesso aos seus dados automaticamente. Eles são treinados com dados públicos até um certo ponto no tempo e não sabem nada sobre sua empresa, seus clientes, seus contratos ou sua realidade — a menos que você informe.
É aqui que entra a conexão entre IA generativa e dados reais. Para que a IA seja útil de verdade, ela precisa ser alimentada com:
- Contexto atualizado
- Conhecimento específico
- Dados da sua operação, setor ou domínio
Existem duas formas principais de conectar seus dados à IA Generativa:
- Fine-tuning (ajuste fino): quando você retreina o modelo com seus dados (exige alto custo e cuidado com a governança).
- RAG – Retrieval Augmented Generation: onde você mantém seus dados armazenados em fontes seguras, e a IA os consulta dinamicamente no momento da pergunta.
A IA generativa sozinha é poderosa, mas com os seus dados, ela se torna imbatível.
E os bancos de dados relacionais? Eles servem para IA Generativa?
Sim! Bancos de dados relacionais (como PostgreSQL, MySQL, SQL Server, Oracle) são fontes riquíssimas de informação estruturada e podem ser integradas ao fluxo de IA Generativa.
Veja como:
- Extração automática dos dados mais relevantes (como produtos, históricos, registros)
- Transformação para texto ou estrutura narrativa
- Vetorização desses dados em embeddings para contexto
- Consultas contextuais em tempo real para perguntas do tipo:
- “Qual cliente comprou mais no último trimestre?”
- “Gere um e-mail personalizado com base no perfil do cliente X”
- “Quais são os procedimentos mais buscados por faixa etária?”
Você pode manter o banco relacional como fonte primária de verdade (source of truth) e sincronizar partes específicas com sua base vetorial, garantindo segurança, governança e escalabilidade.
IA sem contexto é IA genérica. IA com os seus dados é IA estratégica.
Um modelo como o GPT-4 ou o Gemini pode responder sobre o mundo. Mas quem responde sobre a sua empresa, sua operação, sua história… é você.
Por isso, sua empresa precisa:
- Escolher bem os dados que serão usados
- Estruturar esses dados com qualidade
- Usar engenharia de prompt com clareza, ética e propósito
- Garantir que cada resposta da IA seja útil, inclusiva e confiável
Caso prático: Rose.Help
A Rose.Help é uma secretária virtual criada para ajudar profissionais autônomos e pequenos negócios a otimizar as tarefas do dia a dia. Como diz seu slogan “IA organiza, você cuida”
Na versão clínica, a Rose.Help usa o Med-GEMMA, modelo da Google especializado em conteúdo médico. A IA analisa os dados do paciente de acordo com o seu contexto, procedimentos da clínica e informações concedidas pelo profissional.
Sabe qual é legal na Rose.Help? Ela é simples para mim, ela é simples para o profissional da clínica, usa o que temos de melhor na IA Generativa da forma certa sem abrir mão do bom e lindo banco de dados relacional e NoSQL, dados vetorizados, contextualização com RAG e engenharia de prompt de alto nível.
Conheça a Rose em https://Rose.Help
Conclusão: IA não substitui quem pensa. Amplifica quem é estratégico
A IA generativa não veio para substituir você. Ela veio para amplificar quem sabe perguntar bem, estruturar seus dados e gerar valor. A mágica não está só no modelo. Está na sua capacidade de organizar, conectar e direcionar os dados certos para gerar as respostas certas. IA de verdade não responde tudo. IA de verdade responde o que importa. Com contexto, precisão e responsabilidade.
Este conteúdo faz parte da ProgaMaria Sprint IA Generativa
Autora
Danielle Monteiro é fundadora da Rose.Help e da IA Preta. Referência global em tecnologia, diversidade e inovação, com mais de 20 anos de experiência em dados e inteligência artificial. Autora do livro “A Arte de Ser Diverso”, já palestrou em eventos como o MongoDB World em Nova York e o Oracle Code One em São Francisco. Premiada como Microsoft MVP e Google Developer Expert (GDE), inspira audiências com palestras que conectam inclusão, inovação e estratégias para resultados reais.
https://linkedin.com/in/danimonteirodba
Revisora
Luciana Fleury, jornalista