EP15: O Caos dos Provedores de IA
🧭 Mapa da Edição
📓 Navegar pela stack de IA pode parecer escolher shampoo no mercado: tudo promete o mesmo, mas tem funções bem diferentes, a mágica tá em saber ler o rótulo certo.
🌊 Apple colocou água no vidro, deu visão à IA e ainda teve físico dizendo que o universo pode ter nascido de um tranco no espaço-tempo. Semana tranquila, né?
📦 Das profundezas dev: um TTS open-source com voz de gente, um observador silencioso pra suas LLMs, e uma lib que transforma webcam em playground interativo.
📓 Entrada no Logbook
Passei um tempo tentando organizar minha stack de IA, e quanto mais eu pesquisava, mais as opções pareciam se misturar: OpenRouter, Together, Fireworks, DeepInfra, Portkey...
Tudo parecia fazer a mesma coisa.
O que parecia confusão era, na real, uma falta de segmentação. Eu tava tentando comparar coisas que nem competem entre si.
E esse texto é justamente pra registrar esse raciocínio.
Pra começar, não é tudo "provedor de IA" no mesmo sentido. Existe uma separação clara entre quem executa, quem cria e quem conecta tudo.
1. AI Gateways
São os que te dão uma API unificada pra vários modelos, de vários lugares diferentes. Eles não rodam modelo nenhum, só te conectam com quem roda.
Exemplos: OpenRouter, Portkey, EdenAI
O que fazem:
Simplificam a troca de modelo
Unificam billing e controle de uso
Oferecem fallback automático
Centralizam observabilidade e logs
É como usar um Zapier da IA. Um gateway entre você e os provedores reais.
2. Provedores de Modelos Open Source
Esses pegam modelos públicos (como Mistral, Llama, Qwen) e rodam eles por você, entregando tudo via API. Alguns deixam você subir um modelo próprio fine-tuned e te dão uma URL de inferência pra ele.
Exemplos: Together.ai, Fireworks, DeepInfra, Groq
O que fazem:
Hospedam modelos open-source
Te entregam uma API pronta
Alguns otimizam performance ou custo
Por que usar:
Você não precisa lidar com GPU, deploy, timeout, nada disso.
É o meio-termo entre rodar local e depender de um GPT da vida.
3. Provedores Proprietários
Esses criam os modelos que viraram padrão de comparação: GPT-4, Claude, Gemini, Grok...
Exemplos: OpenAI, Anthropic, Google, xAI
O que fazem:
Criam LLMs fechados, de alta performance
Só permitem uso via API deles
Você vai pagar mais. Mas se precisar do melhor resultado possível, é por aqui.
"Tá, e se eu quiser rodar um modelo open-source?"
Você tem três caminhos. Cada um com um nível de controle (e dor de cabeça):
Rodar local
Controle total
Precisa de GPU, setup e manutenção
Alugar infra (tipo AWS, LambdaLabs)
Flexível
Exige saber de infra
Usar provedores como Together ou Fireworks
Prático, API pronta
Você paga por uso
Onde muita gente se confunde
Eu mesmo caí aqui:
"Portkey ou Together.ai?"
Mas são coisas diferentes:
Portkey é um gateway.
Together é um provedor de modelo.
Na real, você pode usar Together dentro da Portkey.
Mesmo erro vale pra:
"OpenRouter ou DeepInfra?"
Um é gateway, outro é provedor. Você pode (e talvez deva) usar os dois juntos.
A pergunta não é:
"Qual é o melhor?"
A pergunta certa é:
Qual peça falta no meu stack de IA agora?
Com isso claro, tudo flui:
Trocar de modelo fica simples
Você escala
E evita o pânico de ter que reescrever tudo porque "mudou de ideia"
Essa semana eu entendi que o ecossistema de IA não é um caos, ele só exige mapa e bússola.
Agora que consegui separar quem é gateway, quem é executor, e quem é criador, as decisões ficaram muito mais leves.
E se quiser se aprofundar nas comparações entre hospedagens de LLM, fiz um comparativo detalhado aqui → Comparativo AI Hosting, e para quem estiver interessado em AI Gateways, fiz um comparativo aprofundado aqui → Comparativo AI Gateways
Se isso te ajudou também, salva aí ou manda pra alguém que tá nessa jornada. E se tiver dúvidas, comenta ou chama ✌🏼
🌊 Marés da semana
A Apple trouxe vários anúncios de impacto na WWDC, com destaque para o novo design Liquid Glass (um tipo glassmorphism com poder de água), Live Translations integradas aos apps nativos, e um assistente com visão da tela em tempo real (semelhante ao Gemini e ChatGPT Vision, mas nativo do sistema). Veja o design | Veja o Live Translations | Veja a IA com visão Se quiser um resumão de tudo, tem um vídeo aqui (9 min)
E entrando no mundo da física teórica, pesquisadores sugerem que o começo de tudo não foi um Big Bang como conhecemos, mas talvez tudo tenha surgido de um buraco negro! Praticamente envolve uma colisão, um boom, e um rebote! Curioso né?
📦 Treasure - Good Stuff
A Resemble AI liberou o Chatterbox, seu novo modelo open-source de Text-to-Speech. Os resultados estão impressionantes, nível ElevenLabs, com áudio natural e customizável
E se sua aplicação com IA já tá em produção (ou quase) e precisa monitorar: Helicone é como um Sentry pra chamadas de LLM, com logs, análise de tokens, billing e até feedback do usuário.
Já pensou em usar IA junto com a Webcam do usuário? Com React-Webcam, você pode capturar vídeo em tempo real em apps React, perfeito pra criar experiências interativas com visão computacional ou voice-to-video 📸