Dia 1: Langchain Basics – meu primeiro bate -papo com Claude e Titan
Ei! Bem -vindo à minha jornada de aprender Langchain com a AWS Bedrock. Estou documentando tudo o que for, para que você possa aprender ao meu lado. Hoje foi o meu primeiro dia de mergulho nesse mundo fascinante dos modelos de IA e, honestamente, parecia ter uma conversa com o futuro. Nota de configuração rápida: estou usando o AWS Sagemaker Studio Notebooks para toda essa série – ele vem com todas as permissões da AWS pré -configuradas e torna o processo de aprendizado super suave. Basta criar um caderno e você está pronto para ir! O que é Langchain e por que usá -lo? Langchain é uma estrutura Python que torna o trabalho com grandes modelos de idiomas (LLMS) incrivelmente simples. Em vez de escrever chamadas complexas de API e lidar com respostas cruas de JSON, o Langchain fornece uma interface limpa e intuitiva. Por que Langchain? Simplicidade: uma linha de código em vez de mais de 20 linhas de consistência de manuseio de API: a mesma interface para diferentes modelos de IA (Claude, GPT, Titan, etc.) Power: Recursos embutidos como memória, correntes e modelos imediatos flexibilidade: fácil de alternar entre modelos ou combinar várias chamadas de IA pensam em Langchain como uma ponte entre o código Python e os modelos poderosos. Em vez de lidar com chamadas complexas de API e respostas JSON, Langchain faz parecer que você está apenas conversando com um amigo realmente inteligente que por acaso vive na nuvem. Configurando as primeiras coisas do playground primeiro – vamos preparar nossas ferramentas. É como preparar o chai antes de uma boa conversa :! Instalar o BOTO3 == 1.39.13 Botocore == 1.39.13 Langchain == 0.3.27 Langchain-AWS == 0.2.31 Importar BOTO3 de Langchain_AWS import Chatbedrock # Initialize Bedrock Client) Region_name = “US-EAST-1”) Digite o modo de saída de tela cheia de tela cheia. Esta é a nossa base. O Bedrock_client é como obter um passe VIP para os modelos de IA da AWS. Simples, certo? Conhecendo Claude – O pensativo Ai Claude é como aquele amigo que sempre dá respostas atenciosas e bem estruturadas. Vamos configurá-lo: # Crie um Langchain chatbedrock llm = chatbedrock (client = bedrock_client, model_id = “Anthrópica.claude-3-Sonnet-20240229-V1: 0”, model_kwargs = {“max_tokens”: 256: Sinta com base na versão indiana desi “) print (” Claude Response: \ n “, Response.Content) Digite Modo de tela cheia de tela cheia Modo de tela completa A mágica acontece nessa chamada Invoke (). É como fazer uma pergunta e receber uma resposta atenciosa. A temperatura: 0.7 torna Claude um pouco criativo – não muito robótico, nem muito selvagem. Conhecendo o Titan – A rápida resposta agora, vamos experimentar o próprio modelo Titan da Amazon. Mas é aqui que aprendi algo importante da maneira mais difícil: # tente com o modelo de titan (conclusão mais curta) titan_llm = chatbedrock (client = bedrock_client, model_id = “Amazon.titan-text-lite-v1”, model_kwargs = {“maxtokEncount”: 128, “temperatura”: 0.5}) Poema (4 linhas Max) Sobre os serviços da AWS em nuvem. Amazon.titan-text-lite-v1, mas para interações de bate-papo, a Amazon.titan-text-express-v1 funciona melhor. É como chamar alguém pelo nome certo – Detalhes importantes! 2. Confusão de parâmetro: MaxtoKencount vs max_tokens Este me pegou! Modelos diferentes esperam nomes diferentes de parâmetros: Claude Models: Use Max_tokens Alguns modelos de Titan: Pode esperar MaxtoKencount em certos contextos Langchain Standard: geralmente usa max_tokens pensar nisso – é o mesmo conceito (limitando o comprimento da resposta), mas modelos diferentes falam dialetos ligeiramente diferentes. Sempre verifique a documentação! 3. Usando a instância do modelo correto, cometi um erro bobo – criei o titan_llm, mas depois usei o LLM para a resposta do Titan. É como preparar dois chás diferentes, mas servir o errado ao seu convidado! O que aprendi hoje Langchain simplifica tudo – não é mais lutador com respostas de API bruta que cada modelo tem personalidade – Claude é atencioso, o Titan é um nomes de parâmetros rápidos que variam – sempre checando os documentos controla a criatividade – mais baixo = mais focado, mais alto = mais criativo IDs de modelo são específicos – use o direito de uso do dia de uso. Como aprender a andar de bicicleta, o primeiro dia é sobre equilíbrio e não cair. Todos os dias, descobriremos novos conceitos através da experimentação prática! A beleza de Langchain é que faz com que a IA poderosa se sinta acessível. Você não precisa de um doutorado no aprendizado de máquina – apenas curiosidade e vontade de experimentar. Codificação feliz! Se você achou isso útil, deixe um comentário e siga essa série inteira enquanto exploramos mais magia de Langchain juntos. Sobre mim oi! Eu sou Utkarsh, um especialista em nuvem e construtor comunitário da AWS que adora transformar tópicos complexos da AWS em histórias divertidas de chai-time ☕ Explore mais. Siga ao documentar tudo o que aprendo, incluindo os erros e as vitórias.
Fonte