27/01/2025, 18:10 |
Deepseek comeu o boga de todas empresas de IA americanas kkkk
Trollada chinesa forte.
Trollada chinesa forte.
Open Thread - Informática 2024-2025
Tópico em 'Informática & Tecnologia (Gadgets)' criado por
rapier em 31/12/2023, 23:34.
|
294 respostas neste tópico
|
27/01/2025, 18:10 |
Deepseek comeu o boga de todas empresas de IA americanas kkkk
Trollada chinesa forte.
2 Trilhões.
Spoiler: imagens E liberaram outro modelo, agora para imagens. (27/01/2025, 18:10)gangrena Escreveu: Deepseek comeu o boga de todas empresas de IA americanas kkkk A grande sacada deles são o open source e o barateamento. Ainda não usei extensivamente pra comparar com outros, até agora o Claude está sendo o melhor modelo de IA pra resolver problemas de código pra mim. Eu testei o modelo R1 de 14b e o modelo 32b Q4 na minha RTX 3090, pra tarefa que dei a eles, explicar aspectos de minha codebase, não se saíram muito bem. Pra essa tarefa o Claude está sendo o melhor modelo, muito melhor que o GPT O1 inclusive. Vou precisar testar com a versão fodona do R1 nessa mesma task pra comparar com o Claude. A sacada do GPT O1 é que ele é mais barato e rápido se comparado ao Sonnet 3.5 do Claude, o R1 até pode competir com o O1 da OpenAI, mas contra o Claude realmente só acredito testando. Se a R1 conseguir miniaturizar o modelo fodão pra caber numa GPU consumer-grade, aí sim é revolução. E muito provavelmente é questão de tempo, o ânimo já tem.
1 usuário curtiu este post: gangrena
27/01/2025, 18:31 |
(27/01/2025, 18:24)JJaeger Escreveu: A grande sacada deles são o open source e o barateamento. Ainda não usei extensivamente pra comparar com outros, até agora o Claude está sendo o melhor modelo de IA pra resolver problemas de código pra mim. Eles quebraram tudo que OpenAI, Microsoft, Meta, Amazon e Google estavam cobrando de todo mundo. Se for tudo o que estão falando, bastará cancelar a conta do ChatGPT e baixar o DeepSeek. Vai ser a maior trollagem ao vale do silicio de todos os tempos. (27/01/2025, 18:31)gangrena Escreveu: Eles quebraram tudo que OpenAI, Microsoft, Meta, Amazon e Google estavam cobrando de todo mundo. O mercado de IA é muito volátil devido a própria natureza de IA generativa, está em constante mudança, e shareholders não sabem nada dos aspectos técnicos de IA generativa, vão agir com base no primeiro gráfico de excel que virem. Esse tipo de situação é natural. O meu patrão, que tem background técnico, vive achando que IA vai conseguir, por exemplo, gerir reuniões e entender demandas de clientes a ponto de ter contratado uma ferramenta IA pra isso, que nunca funcionou. Quando poucos sabem o verdadeiro valor e capacidade de uma IA generativa, o preço de qualquer stock em volta disso vai variar loucamente pelos mínimos eventos.
27/01/2025, 18:43 |
Meu, é muito insana essa feature do Deepseek que mostra o "raciocínio " da IA.
Citar:ola Citar:Okay, the user just said "ola". That's Spanish for "hello". Maybe they're greeting me or testing if I understand Spanish. I should respond in a friendly way. Let me say hello back in Spanish and offer help. Let's keep it simple and open-ended so they can ask whatever they need. Hmm, should I use "Hola" or "¡Hola!" to be more enthusiastic? Probably add the exclamation for a warmer tone. Then ask how I can assist them today. Yeah, that sounds good. Keep it straightforward and welcoming. Citar:¡Hola! ¿En qué puedo ayudarte hoy? Citar:eu falo ola, em português Brasil Citar:Okay, the user first said "ola" which is "hello" in Portuguese, but they wrote it with a lowercase 'o'. I responded in Spanish, which might have been a mistake. Then the user clarified that they're speaking Brazilian Portuguese. They probably noticed my initial response was in Spanish and wanted to correct that. I need to apologize for the confusion and switch to Portuguese. I should make sure to use proper capitalization and punctuation in Portuguese. Also, keep the response friendly and open for them to ask anything they need help with. Let me check the correct spelling: "Olá" with an accent on the 'a'. Make sure to use that. Also, use Brazilian Portuguese expressions to be more accurate. Okay, the response should be something like: "Ah, entendi! Olá! Como posso ajudá-lo hoje? Estou aqui para responder a qualquer pergunta ou ajudar com o que você precisar em português do Brasil. Fique à vontade para perguntar!" Citar:Ah, entendi! **Olá!** 😊 Como posso ajudá-lo hoje? Estou aqui para responder a qualquer pergunta ou ajudar com o que você precisar em português do Brasil. Fique à vontade para perguntar!
27/01/2025, 18:45 |
Foi a primeira coisa que estranhei quando testei no Ollama o modelo 7b. O R1 mostra o pensamento numa tag <think>(pensamento)</think> antes de responder o que foi pedido.
É interessante pra alguns casos de uso, mas preferia que fosse escondido por padrão.
27/01/2025, 19:59
(Resposta editada pela última vez 27/01/2025, 19:59 por PaninoManino.)
|
O grande baque é que essa empresas murricanas, o valor delas, não é baseado em resultados, é em investimento.
Quanto mais computadores, mais roubo de conteúdo, mais uso criminoso de energia e água, maior o valor. Venderam a ideia, e convencerão os otários, de que precisam de mais mais e mais e mais e o único caminho. Um dono dessas empresas recentemente estava reclamando de que precisa de TODO o conteúdo, TODOS os recursos, TODO o dinheiro, que o que já está recebendo não é o bastante. Esse projeto provão que não, não é preciso de tudo isso não, então pra quê todos aquele investimento? Faz dias que o Trump anunciou U$500 bilhões só para IA. É a nova Bolha da Tulipa. E o que mais fodeu com tudo foi que é tudo aberto, quem quiser pode pegar e criar sua empresa rival sem precisar de bilhões, sem precisar dos servidores caros da Nvidia, sem precisar secar rios e aquíferos. Tem gente esperneando sobre isso ser "PsyOp" e um "ataque Chinês contra a liberdade murricana". Lembrando, é projeto de um grupo privado.
27/01/2025, 20:47 |
(27/01/2025, 19:59)PaninoManino Escreveu: O grande baque é que essa empresas murricanas, o valor delas, não é baseado em resultados, é em investimento. É baseado em resultados e em sonhos. O vale do silício tem um modelo de investimento "roleta russa inversa" onde o tambor do revólver tem 5 balas: morrem 5, um sobrevive. O que sobreviver vira o novo cash cow do momento, a OpenAI foi a sobrevivente (umas das). Pra cada OpenAI tem outras centenas de empresas falidas. (27/01/2025, 19:59)PaninoManino Escreveu: Quanto mais computadores, mais roubo de conteúdo, mais uso criminoso de energia e água, maior o valor. Tu acha que a Deepseek usa energia solar pra rodar as Nvidias que executam o modelo R1, ou textos confucionistas pra treinar os modelos? A Deepseek se beneficiou muito do trabalho já realizado pelos outros pesquisadores e empresas de IA e ela rouba conteúdo da mesma forma que qualquer LLM o faz. (27/01/2025, 19:59)PaninoManino Escreveu: então pra quê todos aquele investimento? Investidores querem investir, empresas querem mais dinheiro, não precisa de muita explicação. (27/01/2025, 19:59)PaninoManino Escreveu: E o que mais fodeu com tudo foi que é tudo aberto, quem quiser pode pegar e criar sua empresa rival sem precisar de bilhões, sem precisar dos servidores caros da Nvidia, sem precisar secar rios e aquíferos. Ainda precisa de hardware nvidia, só em menos quantidade.
1 usuário curtiu este post: rapier
27/01/2025, 21:16 |
Pelo o que vi, o DeepSeek não fez nada muito desconhecido. O pessoal basicamente escreveu muito código CUDA para obter mais performance e usaram algumas fórmulas matemáticas para "prever" quais tokens o modelo seria ativado. Então, eles apenas treinaram esses tokens, o que gerou uma redução em 95% do treino.
No geral, os americanos são "preguiçosos" em otimizar software já tem uns anos. Jogam um monte de código Python e se ficar lento, é só comprar mais GPUs. Como os chineses estavam com restrição de hardware (supostamente), eles tomaram alguns atalhos. O interessante é que isso deve fazer os americanos darem uma acordada. Eles possuem a vantagem de terem muito mais poder computacional, só precisam começar a otimizar. Presumo que isso beneficie mais a Meta, que possui um modelo tão robusto quanto. Quem sofre mais são os fabricantes de semicondutores, como a Nvidia (tem uma tal de Cerebras que ameaçava a Nvidia com um chip específico para IA).
1 usuário curtiu este post: JJaeger
|
« Anteriores | Seguintes »
|