Dia 2: Passo básico de engenharia com Langchain

Bem -vindo ao dia 2 da nossa jornada Langchain + AWS Bedrock! Hoje, mergulhamos na arte e ciência da engenharia imediata – a habilidade que transforma o texto simples em poderosas interações de IA. O que aprenderemos hoje provocando zero tiro: obtendo resultados sem exemplos de poucos anos: Aprendendo com os exemplos Promoção de função: Fazendo a IA adotar personas específicas parâmetros do modelo: Comportamento de IA de ajuste fino (temperatura, top_p, max_tokens) configuração (continua a partir do dia 1) assumindo que você tem o modelo e o cliente do dia do dia 1), o que está no dia 1), o que você tem, com o que você tem, com o que você tem o que você tem, com os pacotes, com o cliente, com o dia, para o dia, para o dia do dia, o dia do dia 1), o que você está no dia 1). LangChain_AWs Importar ChatBedrock de Langchain.PROMPTS Import PromptTemplate # Inicialize Claude com parâmetros para engenharia imediata llm = chatbedrock (model_id = “Anthropic.claude-3-SONNET-20240229-V1: 0”, Region_name = “-East-1”,, Model-10240222-V1: 0 “, Region_name =” “-East-1″,, ” “Temperatura”: 0.7, “TOP_P”: 0.9}) Digite o modo de tela cheia Sair Modo de tela cheia Entendendo a engenharia de engenharia de engenharia é a arte da criação de instruções que guiam os modelos de IA para produzir saídas desejadas. Pense nisso como ser um diretor dando instruções a um ator – quanto mais clara e mais específica sua direção, melhor o desempenho. Os principais princípios são: Clareza: Seja específico sobre o que você deseja contexto: Forneça exemplos relevantes de informações de fundo: Defina limites (comprimento, formato, tom) Exemplos: Mostre o estilo de saída desejado quando necessário 1. Zero tiro que impulsiona zero e impulso é como pedir a alguém para executar uma tarefa que nunca viu antes, assumindo puramente sobre seu conhecimento geral e compreensão. O modelo usa seu conhecimento pré-treinado sem exemplos específicos. Quando usar Zero-Shot: tarefas simples e bem definidas quando o modelo já entende o domínio para questões gerais de conhecimento quando você deseja que as vantagens de resposta “natural” do modelo: Rápido e simples, sem necessidade de preparar exemplos funciona bem para tarefas comuns limitações: não pode seguir os formatos específicos, que não é um estilo de saída, que pode ser inconsistente para os complexos # zero de toca-toca (sem exames, zero, dado a zero.[“service”]modelo = “Explique {Service} em termos simples para um iniciante”. ) # Use o prompt = zero_shot_prompt.format (service = “Amazon s3”) Response = llm.invoke (prompt) print (resposta.content) Digite o modo de tela cheia de saída de tela cheia 2. Você fornece 2-5 exemplos do padrão de entrada de entrada desejado e solicita que o modelo siga o mesmo padrão. When to use Few-shot: When you need consistent formatting For complex or unusual tasks When zero-shot results are inconsistent To establish a specific style or tone Advantages: Better control over output format More consistent results Can teach complex patterns Reduces need for detailed instructions Best practices: Use 2-5 examples (more isn’t always better) Make examples diverse but consistent Show edge cases if relevant Keep examples concise # Few-Shot Prompting poucos_shot_prompt = promptTemplate (input_variables =[“service”],, modelo = “” “Explique os serviços da AWS usando este formato: Exemplo 1: Serviço: Amazon EC2 Explicação simples: Computadores virtuais na nuvem que você pode alugar por hora. Exemplo 2: Serviço: Amazon RDS Explicação simples: SERVIÇO DE BATO MANGETIDO que lida com backups e atualizações automaticamente. Explique: {Serviço} explicação simples:”) ” poucos_shot_prompt.format (Service = “Amazon lambda”) Resposta = llm.invoke (prompt) print (resposta.content) Digite o modo de tela cheia de tela de saída do modo 3. Função de função que promove a função de promoção atribui uma identidade, profissão ou perspectiva específica à IA. É como pedir ao modelo que “atue como” alguém com especialização, personalidade ou ponto de vista particular. Why Role Prompting works: Models have learned associations between roles and communication styles Provides context for appropriate language and knowledge level Helps generate more engaging and targeted responses Leverages the model’s understanding of different perspectives Types of roles: Professional roles: “You are a software architect”, “You are a teacher” Personality traits: “You are enthusiastic”, “You are patient and methodical” Expertise levels: “You are a beginner”, “You are an expert” Creative Personas: “Você é um poeta”, “Você é um contador de histórias” Melhores práticas: seja específico sobre as características do papel incluem contexto relevante sobre o público combinar papéis com outras técnicas de promoção testam papéis diferentes para encontrar o que funciona melhor role_prompt = promptTemplate (input_variables =[“service”, “role”]modelo = “” “Você é um {função}. Explique {Service} da sua perspectiva. Mantenha -o envolvente e use a linguagem apropriada para sua função.” “”) # Teste papéis diferentes papéis = [“friendly teacher”, “creative poet”, “cricket commentator”]

Para função em funções: print (f “\ n {role.title ()}:”) prompt = role_prompt.format (service = “Amazon lambda”, função = função) Resposta = llm.invke MODEMET (PROMPT) Print (resposta.Content) Print (“-” * 40) Digite o modo de seleção de tela completa MODELSCELSCETS MODEMSCOTS MODELO max_tokens: comprimento da resposta (50-150 para curta, 200-500 para detalhado) Temperatura: nível de criatividade (0,2 = foco, 0,7 = balanceado, 0.9 = criativo) top_p: diversidade de palavras (0.8 = focada, 0.9 = balanceado) Exemplos rápidos # Respostas factuais FACTual_kwargs = {“max_tokens” “150” 150: “150: RESPETURATUMA: Respostas CRIACTY_KWARGS = {“max_tokens”: 300, “Temperatura”: 0.9, “TOP_P”: 0.95} Digite o modo de tela cheia da tela completa Tecla de tela Full Takeaways Core Prompting Techniques: FELLATS: Promonst: Comportamento com a temperatura, TOP_P, MAX_TOKENS MELHORES PRÁTICAS PREVENDENTES: COMEÇAR Simples: Comece com Zero Shot, adicione a complexidade conforme necessário ser específico: Pronhos vagos levam a resultados inconsistentes Teste iterativamente: Refina os avisos com base em resultados Melhorando os resultados: Use Exemplos: Use Exemplos: Mostrar apenas Information Não é necessário que você queira definir o conjunto de restrições: Orientam o modelo com limites limpos e relevantes. Tente insumos incomuns para testar armadilhas comuns de robustez para evitar a excesso de primavera: muitas instruções podem confundir a linguagem ambígua do modelo: seja preciso em seus requisitos ignorando o comprimento do contexto: Promotos muito longos podem ser truncados e não testando casos de arestas: Tente os insumos de que os diferentes parâmetros de teste! Eu sou Utkarsh, um especialista em nuvem e construtor comunitário da AWS que adora transformar tópicos complexos da AWS em histórias divertidas de chai-time ☕ Explore mais. Siga ao documentar tudo o que aprendo, incluindo os erros e as vitórias.

Fonte

Você pode ter perdido