DeepSeek é um chatbot de inteligência artificial chinês concorrente do ChatGPT, da OpenAI. Desenvolvida por uma startup sediada em Hangzhou, ela aposta numa combinação de modelos de linguagem avançados, abertura de código, eficiência computacional e custos muito menores, mas também levanta preocupações sobre privacidade e regulação internacional. O principal diferencial em relação à IA estadunidense é a gratuidade de utilização. Na ocasião de seu lançamento, a ferramenta atingiu o topo dos entre os aplicativos mais baixados da App Store nos EUA e ganhou popularidade. Mas por trás do sucesso, há curiosidades que a maioria dos usuários desconhece. A seguir, confira algumas. Manus AI x DeepSeek: qual é a melhor IA chinesa? Compare Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews ?Grupo do TechTudo no Telegram: receba ofertas e cupons de desconto todos os dias Veja curiosidades sobre o DeepSeek, chatbot de IA chinês Arte/TechTudo Como usar o modo IA do Google? Descubra no Fórum do TechTudo 1. Aprendizado Puro DeepSeek R1 ou "Deep Research" pode ser acessado na página inicial da plataforma Reprodução/DeepSeek O DeepSeek-R1, também chamado de modo de “Pesquisa Profunda”, utiliza aprendizado por reforço puro, que recompensa o modelo apenas quando chega à resposta correta, sem depender de grandes conjuntos de exemplos supervisionados. Essa abordagem permite que o DeepSeek refine seu raciocínio de forma autônoma a cada iteração, o que torna o treinamento independente e eficiente. Essa metodologia ousada contribui para que o modelo seja mais capaz e mais barato em comparação a abordagens convencionais. A empresa continua treinando seus modelos com dados de uso real, utilizando inputs e outputs dos usuários para aprimorar serviços e tecnologias subjacentes. Embora esses dados passem por anonimização e “desidentificação irreversível”, estudiosos alertam que isso não garante proteção completa contra uso indevido de propriedade intelectual ou conteúdo sensível no treinamento futuro, evidenciando desafios contínuos de privacidade e segurança. 2. Custo Baixo DeepSeek custou muito menos que seu rival, ChatGPT Reprodução/TechTudo O modelo base e versões iniciais do DeepSeek foram treinados com custo relativamente baixo. Segundo a própria empresa, o custo final do treinamento foi de US$ 5,6 milhões, valor significativamente menor do que o necessário para treinar modelos como o GPT-4, cujo custo é avaliado em US$ 100 milhões. Porém, existem alguns questionamentos sobre esse número, já que alguns profissionais da área duvidam que esse número represente toda a magnitude real dos investimentos (infraestrutura, experimentos rejeitados etc.). A defesa da ideia de “mais capaz, mais barato” indica que não é necessário um orçamento astronômico para disputar no front da IA. Em vez de depender de clusters gigantescos de GPUs, o DeepSeek utilizou menos máquinas e um processo de seleção de dados mais enxuto, sem comprometer a performance. 3. Dados armazenados na China É possível consultar a Política de Privacidade do DeepSeek no site da plataforma Reprodução/DeepSeek Os dados coletados pelo DeepSeek, como entradas de texto, histórico de chat, informações de conta e dados de dispositivo são armazenados em servidores na China e utilizados para treinar os modelos da empresa. Incidentes anteriores, como a exposição de um banco de dados, mostram que metadados e registros temporários ficaram acessíveis publicamente, o que levanta dúvidas sobre a robustez das medidas de proteção e a governança dos dados. A política de privacidade do DeepSeek afirma que os dados podem ser compartilhados dentro do grupo corporativo ou com autoridades públicas conforme exigido por lei, o que significa que estão sujeitos às leis chinesas e à supervisão do governo local. Especialistas destacam que, em países como Coreia do Sul e Estados Unidos, a transferência de dados para servidores chineses pode gerar bloqueios ou restrições regulatórias, criando um cenário complexo de soberania digital. Embora a empresa declare que os dados são usados para operar os serviços, melhorar e treinar os modelos e cumprir obrigações legais, o fato de ficarem sujeitos às leis chinesas significa que autoridades podem ter acesso legal aos dados a qualquer momento. 4. Filosofia de Código Aberto DeepSeek adotou uma postura de código aberto de forma radical, com modelos principais disponibilizados sob a licença MIT Reprodução/Pexels (Airam Dato-on) O DeepSeek chamou atenção pública, inclusive em debates sobre privacidade, ao adotar uma estratégia de código aberto para seus modelos. Tanto o modelo V3 quanto o R1 foram disponibilizados como open-source e também oferecidos como serviço SaaS hospedado (baseado em nuvem), permitindo que pesquisadores, empresas e desenvolvedores examinem o código e, em alguns casos, modifiquem ou adaptem os modelos. Os principais modelos foram publicados sob a licença MIT possibilitando uso comercial e modificações sem autorização prévia. A abertura fomentou uma comunidade global de desenvolvedores, que adaptam a tecnologia para aplicações diversas, como chatbots educacionais e sistemas de suporte técnico. Por outro lado, nem tudo é transparente. Apesar da abertura de alguns componentes, não está claro até que ponto o sistema de treinamento ou os dados de base são disponibilizados, criando um tipo de “open source com restrições”. Experts alertam que essa liberdade também aumenta os riscos de uso indevido ou engenharia reversa, já que o controle sobre versões derivadas é mínimo. 5. DeepSeek tem ‘muitos especialistas’ Redes neurais da inteligência artificial são inspiradas pelo cérebro humano Reprodução/Freepik O grande diferencial do DeepSeek está em sua arquitetura híbrida, que se aproxima do conceito de Mixture-of-Experts (MoE). Este modelo divide o processamento entre vários “especialistas” internos, ou seja, submodelos treinados para domínios específicos, ativando apenas os módulos necessários a cada consulta. A cada pergunta, o sistema ativa apenas os módulos necessários, economizando recursos e acelerando respostas. Essa estratégia de especialização de módulos e otimização arquitetural permite que o DeepSeek mantenha uma enorme capacidade teórica de parâmetros, mas use apenas parte deles em cada operação. Isso explica como o modelo consegue entregar desempenho elevado com um custo operacional menor, tornando-o mais barato em comparação com modelos densos, assim como o seu concorrente estadunidense, que exige grande poder computacional para cada resposta. Com informações de CMAlliance, OutliersPath, StackAware, Fortune, Invgate, Wiz, SiliconFlow e DeepSeek Mais do TechTudo Veja também: DeepSeek x ChatGPT: saiba principais diferenças entre as IAs concorrentes DeepSeek x ChatGPT: saiba principais diferenças entre as IAs concorrentes