Revisamos neste artigo tudo o que você precisa saber sobre o funcionamento dos Tokens na OpenAI: como funcionam, como contá-los quanto custa cada um.
Você já ouviu falar dos tokens da OpenAI, mas ainda não sabe exatamente o que eles são ou como funcionam? Não se preocupe! Neste artigo, vamos explorar de maneira simples e clara o que são tokens, como eles são consumidos pela API da OpenAI, e como eles afetam o custo de uso do modelo ChatGPT 4o-mini. Se você quer entender melhor essa tecnologia e otimizar seus custos, continue lendo!
Tokens podem ser pensados como pequenos pedaços de palavras. Antes que a API processe uma solicitação, o texto de entrada é dividido em tokens. Esses tokens não são cortados exatamente onde as palavras começam ou terminam — eles podem incluir espaços ou até partes de palavras.
Aqui estão algumas regras práticas para ajudar a entender o comprimento dos tokens em relação às palavras e caracteres:
Para entender melhor, veja como uma frase pode ser dividida em tokens:
Cada uma dessas partes é contada como um token, mesmo que em uma conversa natural você as veja como palavras completas.
Para contextualizar ainda mais, veja a tokenização de alguns textos conhecidos:
Vale notar que o número de tokens varia conforme o idioma. Por exemplo, a frase em espanhol ‘Cómo estás’ (que significa "Como você está?") contém 5 tokens, enquanto possui 10 caracteres. Isso mostra que idiomas diferentes podem ter uma relação de token para caracteres mais alta, impactando diretamente no custo de processamento.
Quando você envia uma solicitação para a API da OpenAI, o texto que você insere é primeiro quebrado em tokens. O modelo processa esses tokens para gerar uma resposta, que também é transformada em tokens. O número total de tokens consumidos em uma interação é a soma dos tokens de entrada e de saída.
Prompt Tokens: Este número representa a quantidade de tokens (ou unidades de texto, como palavras ou partes de palavras) que foram usados no texto de entrada (o "prompt") que você fornece ao modelo.
Ccompletion Tokens: Este número refere-se à quantidade de tokens gerados pelo modelo como resposta ao prompt.
Tokens Totais: é a soma da quantidade de tokens do prompt + a quantidade de tokens consumidas para gerar a resposta.
A quantidade de tokens consumidos afeta diretamente o custo do uso da API. Cada token processado, seja na entrada ou na saída, gera um custo, e otimizar o número de tokens pode reduzir suas despesas.
No caso do GPT-4o-mini, o custo é de US$ 0,15 por milhão de tokens de entrada e US$ 0,60 por milhão de tokens de saída. Ou seja, o preço depende não só da quantidade de tokens que você envia ao modelo, mas também da quantidade de tokens que o modelo responde. Isso é especialmente importante em interações longas ou detalhadas.
A média de consumo de tokens por caractere varia, mas uma estimativa comum é que 1 token ≈ 4 caracteres em inglês. Em português, a variação pode ser um pouco maior, dependendo do tipo de palavras e frases utilizadas.
Uma palavra típica em português consome, em média, cerca de 1,5 tokens. No entanto, palavras mais curtas podem consumir menos tokens, e palavras longas, compostas ou técnicas podem consumir mais.
Frases curtas e diretas consomem menos tokens, enquanto frases longas e complexas podem gerar um consumo maior. Por exemplo, uma frase com 10 palavras pode consumir entre 10 a 15 tokens. Já um parágrafo com aproximadamente 100 palavras pode consumir cerca de 100 tokens.
Quando você utiliza a API da OpenAI para transcrever áudios, o consumo de tokens acontece com base no texto resultante dessa transcrição. Quanto mais extenso o áudio, mais palavras serão geradas e, portanto, mais tokens serão consumidos.
O processamento de imagens não consome tokens diretamente, mas quando o modelo gera descrições ou análises da imagem, o texto gerado é transformado em tokens. Assim, o custo dependerá do volume de texto que a imagem "gera".
Arquivos PDF que contêm texto são tratados de forma similar a qualquer outro documento textual. O conteúdo textual do PDF é convertido em tokens, e documentos maiores, com mais palavras e parágrafos, naturalmente consomem mais tokens.
Agora que já sabemos que o GPT-4o-mini cobra US$ 0,15 por milhão de tokens de entrada e US$ 0,60 por milhão de tokens de saída, podemos fazer algumas simulações simples de custo:
Embora esse custo possa parecer baixo, ao longo de muitas interações, especialmente em projetos de grande escala, os valores podem se acumular rapidamente.
Uma das melhores maneiras de reduzir custos ao usar a API da OpenAI é ser estratégico na quantidade de tokens que você consome. Aqui estão algumas dicas:
Entender o que são tokens e como eles impactam o uso da API da OpenAI é fundamental para qualquer pessoa que deseja utilizar essa tecnologia de maneira eficiente e econômica. Ao ter noção de como os tokens são contados e consumidos, você pode planejar suas interações de maneira mais estratégica, otimizando os custos e garantindo que suas necessidades sejam atendidas sem surpresas desagradáveis no final do mês.
Agora que você tem um bom entendimento sobre como os tokens funcionam no modelo ChatGPT 4o-mini, está pronto para usá-lo de forma mais eficiente e econômica!
Tokens são as menores unidades de texto que o modelo GPT utiliza para processar e gerar respostas. Eles podem ser partes de palavras, palavras inteiras ou caracteres.
Você pode reduzir o consumo de tokens sendo objetivo nas suas perguntas e limitando o tamanho das respostas. Evitar frases muito longas também ajuda.
Em média, uma palavra em português consome cerca de 1,5 tokens, mas isso pode variar dependendo do comprimento e da complexidade da palavra.
Sim, quanto mais tokens forem consumidos durante uma interação, maior será o custo do uso da API da OpenAI.
Quando um PDF contém texto, a API converte cada linha desse texto em tokens. Quanto maior o documento, mais tokens serão consumidos.
Lorem ipsum dolor sit amet, consectetur adipiscing elit lobortis arcu enim urna adipiscing praesent velit viverra sit semper lorem eu cursus vel hendrerit elementum morbi curabitur etiam nibh justo, lorem aliquet donec sed sit mi dignissim at ante massa mattis.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere praesent tristique magna sit amet purus gravida quis blandit turpis.
At risus viverra adipiscing at in tellus integer feugiat nisl pretium fusce id velit ut tortor sagittis orci a scelerisque purus semper eget at lectus urna duis convallis. porta nibh venenatis cras sed felis eget neque laoreet suspendisse interdum consectetur libero id faucibus nisl donec pretium vulputate sapien nec sagittis aliquam nunc lobortis mattis aliquam faucibus purus in.
Nisi quis eleifend quam adipiscing vitae aliquet bibendum enim facilisis gravida neque. Velit euismod in pellentesque massa placerat volutpat lacus laoreet non curabitur gravida odio aenean sed adipiscing diam donec adipiscing tristique risus. amet est placerat.
“Nisi quis eleifend quam adipiscing vitae aliquet bibendum enim facilisis gravida neque velit euismod in pellentesque massa placerat.”
Eget lorem dolor sed viverra ipsum nunc aliquet bibendum felis donec et odio pellentesque diam volutpat commodo sed egestas aliquam sem fringilla ut morbi tincidunt augue interdum velit euismod eu tincidunt tortor aliquam nulla facilisi aenean sed adipiscing diam donec adipiscing ut lectus arcu bibendum at varius vel pharetra nibh venenatis cras sed felis eget.