Executar modelos de IA offline seria o ideal, mas geralmente requer hardware potente e caro. No entanto, nem sempre é esse o caso: o modelo DeepSeek R1 oferece uma opção prática para dispositivos com capacidades limitadas e também é incrivelmente fácil de instalar.
Links Rápidos
O que significa executar um chatbot de IA localmente?
Quando você usa chatbots de IA online como o ChatGPT, suas solicitações são processadas nos servidores da OpenAI, o que significa que seu dispositivo não faz o trabalho pesado. Você precisa de uma conexão constante com a internet para se comunicar com chatbots de IA e nunca terá controle total sobre seus dados. Grandes modelos de linguagem que alimentam chatbots de IA, como ChatGPT, Gemini, Claude, etc., têm requisitos operacionais muito altos devido à sua dependência de GPUs com grande capacidade de memória de vídeo (VRAM). Por esse motivo, a maioria dos modelos de IA são baseados na nuvem.
O chatbot de IA local é instalado diretamente no seu dispositivo, como qualquer outro software. Isso significa que você não precisa de uma conexão constante com a internet para usar o chatbot de IA e pode enviar uma solicitação a qualquer momento. DeepSeek-R1 é um grande modelo de linguagem nativa que pode ser instalado em muitos dispositivos. Seu modelo 7B (sete bilhões de parâmetros) destilado é uma versão menor e otimizada que funciona bem em dispositivos de médio porte, permitindo-me gerar respostas de IA sem processamento em nuvem. Em termos simples, isso significa respostas mais rápidas, melhor privacidade e controle total sobre meus dados.
Como instalar o DeepSeek-R1 no laptop
Executar o DeepSeek-R1 no seu dispositivo é relativamente simples, mas tenha em mente que você está usando uma versão menos potente do chatbot de IA baseado na web da DeepSeek. O chatbot de IA da DeepSeek usa cerca de 671 bilhões de parâmetros, enquanto contém DeepSeek-R1 Em cerca de 7 bilhões de parâmetros.
Você pode baixar e usar o DeepSeek-R1 no seu computador seguindo estas etapas:
- Vamos para Site Ollama E baixe a versão mais recente. Depois, instale-o no seu dispositivo como qualquer outro aplicativo.
- Abra o Terminal e digite o seguinte comando:
ollama run deepseek-r1:7b
Isso fará o download do modelo DeepSeek-R1 7B para o seu computador, permitindo que você insira consultas no Terminal e receba respostas. Se você tiver problemas de desempenho ou travamentos, tente usar um modelo menos exigente, substituindo 7b Com 1.5b Na ordem acima.
Embora o modelo funcione bem no Terminal, se você quiser uma interface de usuário completa com formatação de texto adequada como ChatGPT, você também pode usar um aplicativo como Janela de conversa.
Executar o DeepSeek localmente não é o ideal – mas funciona
Como mencionado anteriormente, as respostas não serão tão boas (ou rápidas!) quanto as do chatbot online do DeepSeek, pois ele usa um modelo mais poderoso e processa tudo na nuvem. Mas vamos ver como os modelos menores se saem.
Resolução de problemas matemáticos
Para testar o desempenho do modelo de 7 bilhões de fatores, dei a ele uma equação e pedi que resolvesse sua integral. Fiquei muito satisfeito com seu desempenho, principalmente porque os modelos básicos geralmente têm dificuldades com matemática. Este experimento demonstra a capacidade de grandes modelos de linguagem de lidar com problemas de cálculo, o que é muito promissor em áreas como física e engenharia.
Esta não é a questão mais complexa, mas é exatamente isso que torna a execução local de um grande modelo de linguagem tão útil. Trata-se de ter uma ferramenta prontamente disponível para lidar com consultas simples instantaneamente, em vez de depender da nuvem para tudo. Essa abordagem melhora a velocidade de resposta e reduz a dependência da conectividade com a Internet, o que é essencial em aplicações de IA interativas.
Corrigindo erros no código
Um dos melhores usos da execução do modelo DeepSeek-R1 localmente é ajudar em projetos de IA. É muito útil, especialmente quando estou escrevendo código em aviões onde não há acesso à internet e confio muito em grandes modelos de linguagem para depuração. Para testar sua eficácia, forneci este código com um erro simples e intencional adicionado.
Ele lidou com o código facilmente, mas vale ressaltar que eu o estava executando em um MacBook Air M1 com apenas 8 GB de memória unificada. (Memória unificada é a memória compartilhada entre a CPU, a GPU e outras partes de um sistema em um chip.)
Com o IDE aberto e várias abas do navegador abertas, o desempenho do meu MacBook sofreu um grande impacto: tive que forçar o fechamento de tudo para que ele voltasse a responder. Se você tiver 16 GB de RAM ou mesmo uma GPU de médio porte, provavelmente não encontrará esses problemas.
Também testei com bases de código maiores, mas ele fica preso em um loop, então eu não recomendaria confiar nele como um substituto completo para modelos mais poderosos. No entanto, ele ainda é útil para criar rapidamente pequenos trechos de código.
Resolva os quebra-cabeças
Também fiquei curioso para ver o quão bem o modelo lidava com quebra-cabeças e raciocínio lógico, então testei-o com um problema: Salão Monty, que resolvi facilmente, mas realmente comecei a apreciar o DeepSeek por outro motivo.
Como mostrado na imagem, ele não apenas fornece a resposta, mas também o orienta por todo o processo de pensamento, explicando como chegou à solução. Isso mostra que ele está pensando no problema em vez de apenas lembrar de uma resposta memorizada de seus dados de treinamento. Isso indica que o DeepSeek é capaz de processar informações e deduzir soluções de uma forma que imita o pensamento humano, o que é um passo importante no desenvolvimento de modelos de IA.
Pesquisas
Uma das maiores desvantagens de executar um grande modelo de linguagem localmente é a descontinuidade do conhecimento. Como ele não consegue acessar a internet, pode ser difícil encontrar informações confiáveis sobre eventos recentes. Essa limitação ficou evidente nos meus testes, mas piorou quando pedi uma breve visão geral do iPhone original — o que gerou uma resposta imprecisa e involuntariamente engraçada.
Obviamente, o primeiro iPhone não foi lançado com o iOS 5, e o inexistente "iPhone 3" ainda não apareceu. Ele errou quase tudo. Testei com algumas outras perguntas básicas, mas a imprecisão persistiu.
بعد Violação de dados do DeepSeekFiquei tranquilo sabendo que poderia executar esse modelo localmente sem me preocupar com o comprometimento dos meus dados. Embora não seja perfeito, ter um assistente de IA offline é uma grande vantagem. Gostaria de ver mais modelos como este integrados em dispositivos de consumo como smartphones, especialmente depois Minha decepção com a Apple Intelligence.