Principal Funcionalidades da ClaudIA
🧠

Funcionalidades da ClaudIA

Detalhamento de algumas das principais funcionalidades e comportamentos da ClaudIA
Alexandre Machado Fabrício Rissetto
Por Alexandre Machado and 6 outros
13 artigos

ClaudIA validar situações com conteúdos ambíguos OU sem conteúdos (Classificador e Clarificador)

https://www.loom.com/share/ddeb6950025947eb83a042fce6c5f581 A feature de classificação e clarificação atua após a segmentação de conteúdos por tópicos, trazendo o contexto completo dos conteúdos relacionados e incluindo todo o contexto da conversa: Para que serve? Essa funcionalidade foi desenvolvida para tornar o atendimento mais inteligente e eficiente, evitando que a ClaudIA escolha sessões erradas por similaridade e ambiguidade entre elas. Exemplos: - Pagamento da plataforma vs módulo de pagamento - Múltiplos tipos de produto que são diferentes, mas são o mesmo tipo Para quem indicamos? Em nossos testes evidenciamos um aumento de (p.p. = pontos percentuais, diferença absoluta entre as porcentagens): - até 5p.p. na retenção para clientes com >1.000 registros de conteúdos - até 7p.p. no CSAT para clientes entre 500 e 1000 registros de conteúdos - Para clientes com menos de 500 conteúdos, o resultado variou entre -1 e +2p.p. na retenção e -2 e +3 no CSAT. Ou seja, não houveram mudanças significativas. Isso acontece porque a funcionalidade de Clarificador tem o maior valor na "desambiguação" de conteúdos semelhantes. E quando os conteúdos são mais complexos ou possuem mais risco de se confundirem entre si. O tamanho do conteúdo é uma aproximação que indica que o projeto possui muitos conteúdos e já chegou em um momento onde a principal alavanca não é adicionar mais conteúdos, mas sim otimizar a utilização dos já existentes. Como Funciona? Após a segmentação de conteúdos por tópicos, a clarificação atua e forma a identificar um dos três cenários possíveis. Ela recebe os conteúdos que normalmente iriam direto para a ClaudIA e "tria" o conteúdo recebido, entendendo se o conteúdo que recebeu é suficiente e é único: 1. Sem conteúdo válido - Conteúdo não é suficiente: Quando a pergunta é clara mas não existem conteúdos para a formulação de uma resposta. Nesse caso, a Claudia irá fazer uma pergunta um pouco mais genérica pedindo pro cliente reformular sua resposta. 2. Prompt base - Tem somente 1 conteúdo suficiente: Quando existe exatamente uma seção útil para responder a dúvida do cliente. Nesse caso, a Claudia irá gerar a resposta direto para o cliente, como geralmente faz. 3. Clarificação com conteúdo - Mais de 1 conteúdo é suficiente para responder: É o cenário preferido em caso de dúvidas do modelo e é sempre ativada quando existe mais de um conteúdo possível para gerar a resposta. Nesse caso, a Claudia irá gerar uma pergunta de clarificação, mas será algo mais direcionado ao contexto específico do cliente. Como Configurar? Atualmente, essa funcionalidade não podem ser ativadas diretamente pelo hub. Para ativá-la, entre em contato conosco para que a configuração seja ativada para você. Quando ela estiver ativa, será possível configurar dois campos: 1. Número de Clarificações com conteúdo: Define quantas vezes o classificador pode pedir uma clarificação mesmo quando existe uma seção relevante identificada. 2. Número de Clarificações sem conteúdo: Define quantas vezes o classificador pode tentar obter mais informações quando não há nenhuma seção na IDS que possa responder à dúvida. Esta feature substitui o Enlightment Question. Ou seja, não pode ser ativado ao mesmo tempo que o Enlightment Question. Riscos mapeados: - Não recomendamos aumentar o número de clarificações acima de 3, dado que são mensagens com pouca customização. Pode causar sensação de que está conversando com um agente não inteligente - Quebra de mensagens excessivamente curtas podem quebrar a mensagem de clarificação, o que não entrega uma experiência agradável.

Última atualização em Aug 09, 2025

Interpretação de Imagens pela Claudia

A Claudia agora é capaz de interpretar imagens enviadas durante a conversa! Essa funcionalidade está disponível nos principais helpdesks que integramos, como Cloud Chat, Zendesk, Hubspot e Intercom. Como funciona Quando uma imagem é enviada para a Claudia: - Ela é automaticamente transcrita por um agente LLM, gerando um resumo semântico da imagem. - Esse resumo inclui textos extraídos e pode conter também o contexto da situação. - O resumo é usado para melhorar a busca vetorial por conteúdos relevantes. - A transcrição acontece apenas uma vez por imagem, no momento em que ela é recebida. - Na hora de responder, a Claudia também recebe a imagem original, não só o texto transcrito, garantindo uma análise mais completa para orientar melhor o atendimento. Formatos de imagens suportados: ✅ PNG (.png) ✅ JPEG (.jpeg, .jpg) ✅ WEBP (.webp) Formatos de arquivos suportados DOCX e PDF: [acesse o link] Não suportados: 🚫 Vídeos. Exemplo de uso Na conversa abaixo, o usuário envia uma foto de uma página web com uma mensagem indicando que ele não está habilitado para realizar sua certificação por videoconferência. Em seguida, a Claudia realiza a transcrição da imagem, analisa o contexto e decide escalar para N2: Se olharmos o raciocínio da Claudia mais no detalhe, podemos ver que a seção em primeira posição de relevância é justamente uma seção N2 que trata sobre a situação de não estar habilitado para videoconferência: Com isso, a transcrição da imagem não só melhora a busca por seções relevantes, como também permite que a Claudia entenda o contexto visual e conduza o atendimento de forma ainda mais precisa. Configuração A funcionalidade pode ser ativada pela interface do Hub, na aba de Attachments. Basta marcar o checkbox abaixo: Configuração avançada de prompt: Mas, se desejar personalizar o prompt usado para transcrever e interpretar imagens por algum motivo específico, entre em contato com o Atendimento Como testar Você pode testar o envio de arquivos diretamente pela nossa tela do Playground Ou você pode realizar um teste end-to-end criando um ticket diretamente no seu helpdesk. Dessa forma, será possível verificar como a imagem é transcrita, interpretada e utilizada pela IA no atendimento real. Observações importantes 1. Se por acaso você já adicionou alguma instrução no seu prompt base (muito incomum) ou criou algum conteúdo na IDS (mais comum) para guiar as respostas da ClaudIA em caso de recebimento de imagens, é recomendado que desfaça esses ajustes para evitar conflito de funcionalidades. 2. Caso o seu Helpdesk não esteja enviando corretamente as imagens pra ClaudIA com a extensão .jpg, .png, etc, a imagem não será interpretada. Até agora todos os canais e helpdesks que testamos estão enviando corretamente esse dado.

Última atualização em Aug 09, 2025

Transformação de Mensagem Usando Histórico de Conversa

Neste artigo, você vai entender como funciona a transformação da mensagem do cliente utilizando o histórico da conversa. Essa é uma ferramenta desenvolvida para aprimorar a qualidade da primeira interação do usuário. Como Funciona a Transformação da Mensagem Quando a primeira mensagem do usuário chega, levamos em consideração as mensagens anteriores marcadas como histórico na conversa. No exemplo a seguir, o histórico é composto das seguintes mensagens: Consideramos essas mensagens, além da mensagem mais recente do usuário, para fazer uma alteração na pergunta que é enviada para a Claudia. Isso permite modificar a mensagem utilizada para a consulta das sessões, tornando-a mais precisa. Se analisarmos as sessões utilizadas para a resposta gerada no exemplo anterior, podemos ver que o termo de pesquisa é diferente das mensagens que o usuário enviou: O termo de pesquisa "como acessar e aproveitar os boletos de impostos mencionados na notificação" foi gerado pelo processo de transformação de consulta do histórico, garantindo uma busca mais assertiva. Sem essa funcionalidade, o termo de pesquisa original seria apenas "como posso fazer isso?", o que poderia levar a respostas menos precisas. Ativação da Funcionalidade Atualmente, essa funcionalidade não pode ser ativada pelo HUB. Quando necessário, entre em contato com a equipe da Cloud para ativação manual. A ativação deve ser feita da seguinte forma: Dentro da configuração do projeto, adicionar o seguinte objeto JSON na raiz do documento: { "conversationHistoryQueryTransformationSettings": { "enabled": true, "prompt": "Analise as mensagens do usuário e do agente abaixo: \n\n {CONVERSATION_HISTORY} \n\n Resuma a dúvida do USER considerando as mensagens enviadas pelo AGENT como contexto. Responda somente com a dúvida resumida, nada além disso.", "_class": "com.cloudhumans.claudia.domain.entities.ConversationHistoryQueryTransformationSettings" } } Parâmetros do JSON: - enabled: Indica que a feature está ativada. - prompt: Instruição utilizada para transformar a mensagem do usuário. - {CONVERSATION_HISTORY}: Placeholder substituído pelo histórico da conversa. Exemplo de Substituição do Placeholder No exemplo citado anteriormente, o placeholder foi substituído pelo seguinte histórico: AGENT: Notificação enviada pela Agilize: Olá, Rafael Viana! Tudo bem? No início de cada mês, gostaríamos de lembrar sobre os impostos a serem pagos. Aqui estão as informações importantes para este mês: 🗓️ Datas de Liberação: Os boletos estarão disponíveis entre 01 e 15 de cada mês. 📍 Onde Acessar os Boletos: Voc... USER: Não sabia, como posso aproveitar isso? USER: Como posso fazer isso? Com essa abordagem, a ferramenta melhora significativamente a precisão da resposta, garantindo uma interação mais eficaz e relevante para o usuário.

Última atualização em Aug 09, 2025

Dando instruções para a ClaudIA (prompts modularizados)

Detalhamento do Problema: O modelo anterior de base prompt consistia em um único bloco de texto extenso, variando bastante entre projetos. Isso dificultava padronizações, manutenções e a realização de testes A/B focados em partes específicas do prompt. Objetivo (Solução do Problema): Migrar todos os projetos para um modelo modularizado de base prompt, onde cada trecho da instrução é separado por módulos com temas definidos. Isso permite maior controle, consistência entre projetos e mais flexibilidade para evoluir o sistema. Características: - O novo modelo monta o base prompt a partir da junção de módulos em uma ordem padronizada. - A estrutura definida para todos os prompts segue a ordem: Contexto da empresa → Instruções gerais → Regras de conteúdo → Tom de voz → Seções recuperadas. - As definições de cada módulo podem ser visualizadas diretamente no Hub, na tela de configurações do projeto. - A modularização permite: - Padronizar instruções entre clientes. - Fazer testes A/B com apenas um ou mais módulos específicos. - Facilitar ajustes em massa e manter prompts atualizados de forma centralizada. - A estrutura modular foi criada com base na análise dos base prompts existentes. - O conteúdo dos prompts foi preservado ao máximo durante a migração, evitando alterações significativas de texto. Configuração: - A modularização foi aplicada a todos os clientes ativos (inclusive os que estão em A/B). - A funcionalidade permite ligar ou desativar o basePrompt por módulos. - As alterações podem ser feitas pelo menu Configurações → Base Prompt Modules, onde cada módulo do prompt pode ser editado individualmente. Instruções para o time de operações: Até decidirmos se vamos manter apenas o formato modular ou o modelo em bloco único: ⚠️ Sempre que for editar o base prompt de um cliente, lembre-se de atualizar: - basePrompt (bloco único) e também o - basePromptModules (versão modularizada)

Última atualização em Aug 09, 2025

Regra de Limite de Reutilização de Seções

O que é e por que isso importa? Durante uma conversa, a ClaudIA pode recorrer às mesmas seções de resposta (como blocos de instrução, mensagens de erro ou explicações automáticas) mais de uma vez — especialmente se o cliente estiver confuso ou insistindo no mesmo ponto. O problema? Se a IA repete demais o mesmo conteúdo, a conversa fica parecendo travada, cansativa ou até frustrante para o cliente. Algumas vezes isso é, sim, útil e traz mais qualidade e automação. Exemplos: - Cliente refez aa pergunta e ClaudIA dá a resposta de formas diferentes para facilitar o entendimento - Quando o conteúdo (IDS) tem mais conteúdos e a ClaudIA dá a resposta para o cliente, mas o cliente faz uma segunda pergunta que tem a resposta na mesma seção da IDS utilizada anteriormente Para evitar esse efeito de “loop”, criamos uma nova funcionalidade: Limitar quantas vezes uma mesma seção pode ser usada em um ticket. O que foi lançado Uma nova configuração que define o número máximo de vezes que uma mesma seção pode ser usada por ticket. Por padrão, a regra está configurada para 4 repetições. Ou seja, se ClaudIA tentar usar uma seção pela 5ª vez, a conversa é escalada de forma automática para N2 (humano). Como decidir o melhor limite para o seu caso? Para facilitar a definição de um limite seguro, foi criado um novo gráfico no Hub: Acesse: Hub → Dashboard → Métricas de Retenção Nome do gráfico: Distribuição da Maior Frequência de Reutilização de Seções por Conversa Como interpretar o gráfico de impacto por número de repetições Este gráfico ajuda você a decidir o melhor limite de repetições de seções para a ClaudIA, equilibrando retenção pela IA (N1) e satisfação do cliente (CSAT). Ele mostra a distribuição das conversas por maior número de repetições de uma mesma seção e simula o que aconteceria se você limitasse o número de vezes que a IA pode usar uma seção por ticket. ‼️IMPORTANTE Os dados de CSAT não aparecerão para todos, pois só conseguimos importar o CSAT de alguns helpdesks (Zendesk, Intercom, Cloud Chat e Hubspot) e se você estiver capturando com os padrões que trabalhamos. Para saber mais, acesse essa FAQ. Nesses casos, você precisará tomar a decisão somente com base nos dados de retenção. Como o gráfico está estruturado: - Num Repetição: Número máximo de vezes que uma seção foi repetida na conversa. - % do total de conversas: Percentual de conversas que tiveram este nível de repetição dentre as conversas que tiveram 1 ou mais repetições (a soma dessa coluna é 100%). - % de n2 geral atual: Taxa atual de N2 em todo o período (valor atual para referência). - % de novo N2: Simulação do percentual de N2 se limitássemos as repetições até este nível. - diferença de p.p N2: Diferença em pontos percentuais entre o N2 atual e o simulado (quanto maior é pior para a taxa de N2, havendo mais conversas escaladas para um humano) - num respostas CSAT: Quantidade de respostas de satisfação coletadas neste nível. - csat geral atual: Taxa atual de satisfação em todo o período (valor atual para referência). - novo CSAT: Simulação da satisfação se limitássemos as repetições até este nível. - diferença em p.p de CSAT: Diferença em pontos percentuais (p.p.) entre o CSAT atual e o simulado (quanto maior é melhor). Exemplo de leitura (com base no gráfico): - Hoje, o CSAT geral é 96.85% e o N2 está em 25.67%. - Se limitássemos a IA para repetir no máximo 1x cada seção por conversa: - O N2 subiria para 47.39% → um aumento de 21.72 pontos percentuais (p.p.). - O CSAT subiria para 97.91% → um ganho de +1.06pp. Isso mostra que limitar as repetições pode melhorar a satisfação mas piorar a retenção pela IA. Agora, se limitássemos para máximo de 2 repetições: - O N2 subiria para 30.86% - Mas o CSAT cairia para 96.59% → ou seja, um impacto negativo. Nesse caso, tanto retenção quanto CSAT pioraram. Perguntas que o gráfico ajuda a responder - Até que ponto vale limitar as repetições da IA para melhorar a experiência? - O aumento no número de escalas para humanos (N2) compensa uma melhora no CSAT? - Ou o contrário: vale sacrificar um pouco do CSAT em troca de reter mais com a IA? Dica prática: Use esse gráfico como apoio para definir o parâmetro de “Limite de Repetição de Seções”. Onde configurar Você pode ajustar o limite acessando a tala abaixo, seguindo esse caminho: Hub → Configurações → N2 Handover → Section Repetition Limit Basta escolher o número máximo de repetições permitidas antes da escalada. O número que você definir será o número de repetições máximas permitidas. Ex.: você definiu o limite como 3. Se a seção usada fosse novamanete utilizada uma 4a vez, o ticket automaticamente será transferido para um humano (N2). Boas práticas - Não defina o limite como 1 ou 2 sem olhar o gráfico, ou você pode escalar muitas conversas desnecessariamente. - Se sua IA atende temas sensíveis ou clientes impacientes, vale testar limites mais conservadores (ex: 3). - Se os fluxos da IA são mais longos ou assuntos complexos, talvez 4 ou até 5 repetições façam sentido. O que é uma “seção” exatamente? Seção = uma entrada da IDS que foi definida, pelo nosso software, como tendo sido a seção usada na resposta. Para saber como é definida a seção usada, veja essa FAQ. O limite impede que ela reutilize a mesma seção excessivamente no mesmo ticket.

Última atualização em Aug 09, 2025

Quebra automática de mensagens: como funciona e como configurar

O que é essa funcionalidade? Essa feature permite que a ClaudIA e o Eddie quebrem mensagens longas automaticamente em partes menores, criando uma experiência de leitura mais fluida, humanizada e com cara de app de mensagem real, especialmente em canais de mensageria rápida, como WhatsApp, Chat e Messenger. Ela também permite que você: - Defina o número máximo de caracteres por mensagem - Configure o tempo entre uma mensagem e outra Por que isso é importante? Antes, a ClaudIA podia responder com um textão só — difícil de ler, cansativo e incompatível com o padrão de apps como WhatsApp, Telegram, etc. Agora, com essa funcionalidade ativada, a mensagem fica mais parecida com o que uma pessoa faria. Estamos humanizando mais a ClaudIA. O que exatamente está configurável? Acessando o menu Message Delivery no Hub (dentro de configurações), você poderá: Split large messages: - Ativa a quebra automática - Padrão: ativada Max caracteres por mensagem - Define o número máximo de caracteres por mensagem - Padrão: 3000 caracteres Time between messages - Intervalo entre as mensagens (em segundos) - Padrão: 1 segundo Como funciona na prática? ➤ Quebra de texto longo Quando a resposta da ClaudIA ultrapassa o número de caracteres definido (ex: 800, 3000…), ela será dividida em múltiplas mensagens usando o último ponto final. A divisão respeita a quebra entre palavras e, sempre que possível, quebra entre parágrafos. 📌Atenção: Se o conteúdo for um passo a passo ou instrução numerada, a quebra ainda será feita baseada apenas em número de caracteres, podendo cortar no meio de um passo. Isso é uma limitação conhecida. ➤ Intervalo entre mensagens Você pode configurar o tempo entre o envio de cada parte da mensagem no campo “Time between messages.” Ele define quanto tempo a ClaudIA (ou o Eddie) espera antes de enviar a próxima mensagem de um texto dividido. Ele é configurado em segundos. ➤ Quebra de mensagens do Eddie por bubble Antes, quando havia vários bubbles de texto seguidos no Eddie, a ClaudIA concatenava tudo em uma única mensagem. Agora, cada bubble é enviado separadamente, com um intervalo entre eles. Onde isso funciona? - WhatsApp - Playground (para testes) - Webchat (se configurado com delay) ❌ Não funciona em e-mail — por padrão, e-mails mantêm mensagens longas em um único bloco. Caso contrário, vários emails seriam enviados. No email já há a quebra normal por parágrafo, padrão pra esse meio de comunicação. Como ativar ou ajustar? Essa funcionalidade já vem ativada por padrão com: - Max caracteres por mensagem: 3000 caracteres - Time between messages: 1 segundo Mas você pode ajustar ou desativar a qualquer momento: Hub → Configurações → Message Delivery Para desativar completamente: - Desmarque a caixa Split Large Messages Exemplo prático Vamos assumir que o limite esteja definido como 800 caracteres: - Se dois parágrafos sequenciais tiverem 700 caracteres cada, ela enviará o primeiro parágrafo e depois o segundo - Se um parágrafo tiver 900 caracteres e o texto até o penúltimo ponto final tiver 600 caracteres, ela enviará essa parte e depois o final - Se um parágrafo tiver 900 caracteres e o texto até o penúltimo ponto-final tiver 800 caracteres e o até o ante-penúltimo tiver 400, ela enviará a mensagem até o ante-penúltimo ponto-final - Se um parágrafo tiver 900 caracteres e o texto só tiver o último ponto-final e mais nenhum, ela enviará a expressão inteira, até o último ponto final de uma vez Qual o único downside? Como a separação é baseada em número de caracteres, não entende a lógica do instruções com passo a passo. Ou seja, se você estiver explicando um processo passo a passo, como: 1. Acesse o menu 2. Clique em “Usuários” 3. Selecione um item… …a divisão pode acontecer no meio de um passo, tornando a leitura um pouco menos clara. Boas práticas para tamanho das quebras - Se seu canal principal é o WhatsApp, recomendamos manter o limite entre 800 e 3000 caracteres - Se seu canal for chat, que é um canal mais rápido e curto, recomendamos usar quebras mais curtas (~500–1000) para melhorar a legibilidade - Teste no Playground antes de ativar mudanças em produção Boas práticas para o tempo entre mensagens 🎯 Recomendação geral: WhatsApp / Instagram / Messenger - Intervalo sugerido: 0.8s a 1.5s - Tempo padrão de digitação humana. Dá ritmo natural sem parecer robô ou apressado. Webchat - Intervalo sugerido: 0.5s a 1s - Usuários costumam estar em desktop e esperam resposta rápida. Ambientes com muitos bubbles do Eddie - Intervalo sugerido: 0.5s - Para não parecer travado ou demorado demais. Ambientes mais formais ou complexos (ex: saúde, financeiro) - Intervalo sugerido: 1.2s a 3s - Ajuda a passar uma sensação de cuidado e calma.

Última atualização em Aug 09, 2025

Tradução automática de respostas da ClaudIA

O que é essa funcionalidade? Essa feature permite que a ClaudIA detecte automaticamente o idioma do usuário a partir das primeiras mensagens da conversa e passe a responder nesse idioma — mesmo que o projeto tenha sido configurado com outro idioma originalmente. Ela também permite que você: - Defina o idioma padrão do projeto (usado como fallback, e equanto não for detectado o idioma) - Configure os idiomas que serão considerados para detecção - Ative ou desative a detecção automática de idioma Por que isso é importante? Antes, a ClaudIA sempre respondia no idioma padrão do projeto — salvo em alguns casos em que o próprio usuário final solicitava diretamente a mudança ou, ocasionalmente, quando o modelo de linguagem (LLM), por ser não determinístico, identificava e aplicava a mudança sozinho. Esse comportamento, porém, não era controlado e nem confiável. Agora, com essa funcionalidade ativada, o comportamento é padronizado, seguro e configurável, garantindo que a resposta da ClaudIA seja feita de forma consistente no idioma mais adequado para o usuário, sempre que possível identificá-lo com segurança. O que exatamente está configurável? Acessando o menu Configurações Gerais no Hub, você poderá: Ativar a detecção automática de idioma das mensagens do usuário - Padrão: ativada (quando habilitada pelo time de operações) Idioma padrão do projeto - Define o idioma a ser usado quando não for possível identificar o idioma do usuário com segurança - Padrão: Português Brasileiro Idiomas suportados - Define quais são os idiomas utilizados para detectar Como funciona na prática? ➤ Detecção automática pelas primeiras mensagens A ClaudIA analisa as primeiras mensagens do usuário para identificar o idioma com o maior grau de certeza possível. Se não for possível determinar com segurança logo na primeira, o sistema continua avaliando as próximas mensagens até conseguir identificar. É necessário um mínimo de 5 caracteres para que a detecção seja ativada. Se uma das mensagens for suficiente — mesmo que curta — e o modelo tiver confiança alta na detecção, a ClaudIA já começa a responder nesse idioma. ➤ Fallback para idioma padrão Enquanto a ClaudIA não houver segurança suficiente na detecção, ela se mantem respondendo no idioma padrão do projeto. Esse idioma é configurado diretamente no Hub. ➤ Comportamento determinístico após a detecção Assim que o idioma é identificado com segurança, ele passa a ser usado como idioma principal da conversa, garantindo consistência e evitando trocas inesperadas ao longo do atendimento. Ou seja, uma vez identificado o idioma, ele é persistido na conversa e não é mais alterado! Quais projetos podem habilitar? Essa funcionalidade é habilitada manualmente pelo time de operações e está disponível apenas para projetos configurados como multilíngues. Por padrão, ela vem com: - Detecção automática de idioma: ativada - Idioma padrão: igual ao idioma base do projeto Se você deseja ativar essa funcionalidade no seu projeto, entre em contato com o time de operações. Exemplo prático do funcionamento Suponha que o idioma padrão do projeto esteja definido como português: - Se o usuário enviar: "Hola, tengo una duda sobre mi plan" → ClaudIA detecta espanhol com alta confiança e responde em espanhol. - Se o usuário enviar: "Hello" → Mensagem curta, mas se o modelo detectar com confiança que é inglês, a ClaudIA responde em inglês. - Se o usuário enviar: "Oi" → Não é suficiente para garantir idioma → ClaudIA responde em português (idioma padrão). - Se o usuário enviar: "Oi, gostaria de falar sobre meu plano" → ClaudIA detecta português com confiança e segue em português. Qual o único ponto negativo? A detecção de idioma depende das primeiras mensagens da conversa. Se elas forem vagas, ambíguas ou inconclusivas, o sistema pode acabar utilizando o idioma padrão — o que não é um erro, mas pode causar uma experiência um pouco menos personalizada. 📌 Isso é intencional para evitar traduções erradas com base em poucos sinais. A prioridade é garantir segurança na detecção. Boas práticas 🎯 Recomendação geral: - Use essa funcionalidade apenas em projetos multilíngues. - Configure corretamente o idioma padrão para evitar respostas inadequadas. - Oriente os times de atendimento e curadoria sobre esse comportamento. - Faça testes no Playground simulando diferentes mensagens iniciais. - Selecione o menor número de idiomas, assim a detecção é mais assertiva.

Última atualização em Aug 14, 2025

Interpretação de Arquivos pela Claudia (PDF, DOCX e XLSX)

Para mais detalhes para a funcionalidade de como a Transcrição Imagem quanto documentos funcionam, podem acessar esse artigo de transcrição de Imagens A Claudia é capaz de entender e transcrever arquivos enviados pelos clientes, como PDFs, DOCX, XLSX, entre outros tipos de documentos. Essa funcionalidade está disponível para todos os projetos e é ativada automaticamente. Como funciona: - A ClaudIA detecta automaticamente links de arquivos enviados nas conversas. - Para documentos, utiliza modelos de IA e OCR (Reconhecimento Óptico de Caracteres) para extrair o texto, suportando o idioma do projeto. - A transcrição dos arquivos é utilizada tanto na busca vetorial de conteúdos. Além disso, deixamos claro qual o formato e título do arquivo para ajudar na busca de conteúdos sobre como responder para tipos específicos de arquivos - A transcrição dos arquivos também é utilizada na geração de respostas, tornando o atendimento mais eficiente e contextualizado Os arquivos aparecem no hub como anexos, acompanhados da transcrição textual (conforme imagem abaixo). e ao clicarmos no arquivo, um modal se abre para verificarmos a transcrição obtida através do documento: Persistência e Expiração: No momento do recebimento do arquivo, a Claudia realiza a transcrição imediatamente e armazena o texto extraído de forma permanente. O arquivo original pode expirar ou ser removido pelo helpdesk após algum tempo, mas a transcrição permanece disponível, garantindo que o histórico e o contexto não sejam perdidos. Configuração A funcionalidade de ler PDF e DOC é ativada por Default em todos os projetos. Caso queiram que, por algum motivo especial, ela seja desabilitada, entre em contato com o Atendimento. Como testar Você pode testar o envio de arquivos diretamente pela nossa tela do Playground Ou você pode realizar um teste end-to-end criando um ticket diretamente no seu helpdesk. Dessa forma, será possível verificar como a imagem é transcrita, interpretada e utilizada pela IA no atendimento real. Observações importantes 1. Se por acaso você já adicionou alguma instrução no seu prompt base (muito incomum) ou criou algum conteúdo na IDS (mais comum) para guiar as respostas da ClaudIA em caso de recebimento de imagens, é recomendado que desfaça esses ajustes para evitar conflito de funcionalidades. 2. Por utilizar a tecnologia de OCR, depende-se da qualidade do documento e arquivo para garantir uma boa transcrição 3. Futuras melhorias mapeadas: O formato de enviar a imagem direto para um modelo de LLM não foi utilizado porque em testes eles não atingiram uma velocidade mínima esperada para uma interação com qualidade (<2min). Porém, no futuro voltaremos a avaliar essa possibilidade

Última atualização em Aug 09, 2025