Dicas de produtividade de codificação de 10x da IA Orquestration
Patrick, CTO e co-fundador de uma startup nativa da IA (lançada ~ 2 anos atrás, trabalhando com marcas como Coca-Cola, Disney, Google, Microsoft, Nike), compartilha seu manual de orquestração de uma palestra na Microsoft. O problema principal: muitos engenheiros lutam para obter ganhos de produtividade de 10x de ferramentas de IA, como cursor, código Claude (anteriormente Codex) e outros devido a inúmeros loops de alucinações e saídas abaixo do ideal. A solução está na construção de uma “camada de orquestração” em torno dos agentes da IA, fornecendo a eles contexto, ferramentas e validação para permitir eficiência maciça. Isso permitiu à sua pequena equipe escalar receita com o mínimo de funcionários. Filosofia -chave: Mudar do modo de colaborador individual (IC) para “Builder de Meio Ambiente” – orquestrando a IA para lidar com tarefas em engenharia, produto, operações e comunicação. A mentalidade de orquestração: pensando como um construtor de ambiente desbloquear ganhos de 10x, adote uma “mentalidade de orquestração”: Veja -se como um orquestrador: crie ambientes onde os LLMs (grandes modelos de idiomas) prosperam ao fornecer contexto, ferramentas e loops de feedback. Isso reduz gargalos humanos e permite que a IA realize horas de trabalho autonomamente. Empatia pelo LLMS: Feche os olhos e imagine ser o LLM – limitado ao contexto do prompt. Pergunte: Quais informações adicionais (por exemplo, objetivos de negócios, KPIs, guias de estilo, preferências de pacote de código aberto) são necessárias? Este “teste de empatia LLM” garante que os avisos sejam abrangentes. Reduza o atrito: os pequenos atritos compostos; Elimine-os para transformar a IA em agentes proativos. Exemplo: Use ferramentas de voz para texto como Super Whisper (ativado por hotelaria, consciência de contexto para IDEs, terminais ou documentos) para ditar código ou idéias, transformando a fala em saídas polidas. Recursos de modelo evoluem: De acordo com o CEO do Anthrópico, Dario Amodei, modelos como Claude Sonnet 3.5 Indundação ~ 10 minutos de trabalho, 3,7 ~ 45 minutos e Opus 4 ~ horas. Com a orquestração adequada (contexto + ferramentas), isso escala para fluxos de trabalho agênticos. Dica profissional para contexto de alimentação: use tags XML em texto simples ou marcação para prompts, pois os LLMs são pré-treinados em vastos dados XML (por exemplo, conteúdo). Esta entrada de estruturas é melhorando o desempenho. Markdown é o segundo melhor; Evite documentos não estruturados. Caso de uso 1: Briding de equipes técnicas e não técnicas (eliminando gargalos de comunicação) a IA substitui as reuniões, documentos e loops, salvando horas: Ideação não técnica: não-engenheiros (por exemplo, CEO, CPO) usam ferramentas como parafuso para criar protótipos interativos (eg, next.Js/reagirem/reagirem aplicativos para o parafuso interativo sem protótipos (EG, Next.Js/reage Isso se alinha com as restrições mais cedo, evitando que viraram. Prototipagem para usuários: construa MVPs rapidamente para obter feedback de parceiros/clientes – mais eficaz do que os documentos da FIGMA. Ferramentas internas: as equipes de operações criam fluxos de trabalho personalizados (por exemplo, via Bolt), alavancando seu conhecimento de domínio. Os engenheiros refinam a integração de segurança/API. Impacto em 10x: comprime loops de comunicação; Uma pessoa chega mais adiante. “Esta reunião poderia ter sido uma conversa de IA.” FUTURO: Envie AI Avatars (por exemplo, “Thomas”, um agente personalizado) para “reuniões”. Estrutura para construção de contexto: ferramentas como granola/pesquisa profunda: reuniões/transcrições de gravação (por exemplo, da AI Engineer World’s Fair: Scrape 224 Talks, Speaker Bios, Summeries) .Fed em notebooklm para consultas, podcasts ou insights acionáveis: Aplicações de boches/pilhas de e -mails. + contexto da empresa; Saída: Raciocínio estruturado (por exemplo, 4 quadrantes para SWOT). Caso de uso 2: Pesquisa e operações de mercado avançadas simulam conversas de especialistas: use APIs para fazer com que a RPG LLMS (por exemplo, uma como pesquisadora de UX, outra como CMO de uma empresa de saúde de médio porte). Minas de conhecimento pré-treinado para estratégia de produto, idéias de marketing; validar com usuários reais. Automação operacional: ferramentas como N8N (GUI para fluxos de trabalho, integra LLMS/APIs), Zapier ou Gumloop. Exemplo: escreva uma peça de mídia (script/post do YouTube/LinkedIn), formato automático em variantes. Impacto em 10x: Destills Weeks of Research em insights acionáveis; automatiza tarefas repetitivas. Ferramentas de codificação Agentic: Código Claude (baseado em CLI, como cursor, mas focado no terminal), agente do cursor, mãos abertas/fábrica (estruturas de orquestração). Use com o Opus 4 por ~ horas de trabalho autônomo. Evalas para confiabilidade: use Braintrust para Evalas do tipo unidade de teste (avisos + saídas esperadas). Conta as “personalidades” do modelo (por exemplo, Soneto 3.5 Lazy, 3,7 Overeager, Opus 4 Oriciável). Tweak por modelo para evitar regressões. Automation Pipelines: Iniciar manual (por exemplo, costurar via scripts/noção como armazenamento de dados) e depois automatize com N8N/Scripts. SOPORTIVOS DE PROMBEES/CONTEXT em pastas/repositórios de marcação. Compartilhamento de conhecimento: use vídeos de telha + arquivos de marcação compartilhados (por exemplo, pastas de contexto com documentos/prds/fluxos de trabalho) .future: noção documentos consultáveis pelo LLMS; encapsulado no MCPS para acesso não-tecnologia. Integração de DNA de team-team-teatro não técnico: enfatize a adaptação; Economia de tempo de demonstração (por exemplo, 3 horas → 10 minutos). Ferramentas visuais: o N8N mostra os fluxos de trabalho graficamente, impulsionando a adoção. Exemplos do mundo real do aplicativo WebGL de desempenho de 10x Gainhas: Costação de slides construída para eventos (Performant em telas grandes). Ai lidou com 0-90% rapidamente; Tweaks manuais para webgl/virtualização/desempenho. Total: 3-4 semanas com 1 engenheiro (tempo normal 1/4). Modelos: Painel do Soneto 3.5/3.7.SAAS em 5 horas: da API Repo + Prds/Docs ao painel completo (integração da API, auth, linda interface do usuário). Aprimorado com princípios de design de empresas admiradas (via Deep Research → Markdown) + Guia de estilo convertido PDF. Adicionado animações/polimento. Impacto: Um engenheiro explora domínios (UI/UX/SEO/API) profundamente/horizontalmente. Insight principal: a IA encontra projetos de código aberto de ponta instantaneamente, superando as equipes internas. O futuro: Genai UX e mudanças organizacionais projetando para LLMS: otimize sites/APIs para consumo de IA (por exemplo, llm.txt como marcação equivalente a sitemap) .llms farão compras/decisões. Projetando com LLMS: Sprinkle Intelligence (por exemplo, chatgpt automationsames automáticos bate-papos) .paradigms: vibe codificando para mvps. Entenda nuances.Vibe Código Aplicativos pessoais: 5-30 minutos com código Bolt/Claude para experimentar recursos. Recursos: “Melhores práticas com código Claude”, “Dominando o código do Claude em 30 minutos”. Engenheiros como orquestradores de mares do agente. Fosso: Velocidade: AI facilita os produtos; A velocidade da execução vence. Governança, privacidade, segurança e Validationstartup Abordagem: priorize a velocidade; Proteja os dados do PII/Usuário. Use fornecedores confiáveis (OpenAI/Antrópico/Groq); Atualize para a empresa para obter garantias. Evite modelos não confiáveis (por exemplo, Deepseek); hospede versões ajustadas no rosto abraçando. Validação/Eval: Human-in-loop para pequena escala; BrainTrust para Código/Texto/Imagem Evals. “Sinta as vibrações” para verificações rápidas. Emprestar padrões agênticos (por exemplo, Langchain): “Tune” especialistas “para funções (100 pares de dados são suficientes). Aceite alguma efemeralidade nas saídas da IA. Para tarefas ambíguas: concentre -se em 80/20 de áreas críticas; Evalas medem comutadores/regressões do modelo. Este resumo captura a essência do manual: orquestre com contexto/ferramentas/feedback para entrar em colapso gargalos, permitindo que uma pessoa alcance o que as equipes fizeram uma vez. Implementar iterativamente – comece com testes de empatia, ferramentas de voz e MCPs – para obter ganhos de 10x. Brian Wang é um líder de pensamento futurista e um blogueiro de ciências popular com 1 milhão de leitores por mês. Seu blog NextBigfuture.com está classificado como #1 Blog de notícias de ciências. Abrange muitas tecnologias e tendências disruptivas, incluindo espaço, robótica, inteligência artificial, medicina, biotecnologia antienvelhecimento e nanotecnologia. Conhecida por identificar tecnologias de ponta, ele atualmente é co-fundador de uma startup e angariador de fundos para empresas em estágio inicial de alto potencial. Ele é o chefe de pesquisa de alocações para investimentos em tecnologia profunda e um investidor anjo da Space Angels. Um orador frequente das empresas, ele foi um orador do TEDX, um orador da Universidade de Singularidade e convidado em inúmeras entrevistas para rádio e podcasts. Ele está aberto a falar em público e aconselhar compromissos.
Fonte
Publicar comentário