As reflexões de um dev sobre ai

Ética em inteligência artificial? Não vamos nos enganar, o jogo mudou e não tenho dúvidas sobre isso, então vamos refletir um pouco sobre esse assunto. Recentemente, participei de uma apresentação feita pelo evento de notícias do LinkedIn, apresentado por Ana Prado e pelo convidado especial, a ilustre professora Dr. Alvaro Machado Dias “Riscos e limites éticos no uso da inteligência artificial”. Foi muito interessante e me fez refletir um pouco mais sobre essa questão provocativa e complexa que muitas vezes passa despercebida por aqueles que trabalham diretamente com a tecnologia diariamente. É curioso como certos tópicos despertam em nós que quase incontrolável desejo de pensar um pouco além, para se aprofundar, para abrir o “sublime” mental e começar a codificar idéias como se fossem linhas de código GO ou qualquer outro idioma, é claro. Foi exatamente o que aconteceu comigo. Eu poderia simplesmente seguir a rotina de um engenheiro de software, arquiteto de sistemas, pensar em estruturas de dados, algoritmos, pipelines K8S, mas com todas as conversas que ouvi, algo dentro de mim gritou, sabe? Precisamos refletir mais sobre isso como humanidade que pensei comigo mesma. E aqui estou eu, tentando escrever, não porque estava no meu planejamento diário, mas porque é como se eu estivesse compilando código filosófico que insiste em correr dentro de mim. Eles dizem que sou uma exceção, mas eu sou? Um técnico, um engenheiro, alguém mergulhou por mais de duas décadas em arquitetura e programação, mas que não se contenta em apenas projetar sistemas. Adoro quando a conversa invade o terreno da filosofia, a ética, aquelas coisas que não têm documentação oficial, sem leitura no Github para nos guiar para onde ir, o que fazer, mas essa necessidade de interpretação densa e “humana”. Fico muito irritante quando entro nesse assunto com colegas. AI in the Gray Territory And artificial intelligence coming with all its force since the paper “Attention Is All You Need (Vaswani et al., 2017)” published in 2017, which defines the “Transformer” model as a new architecture eliminating the need for RNNs (Recurrent Neural Networks) that were standard in NLP (Natural Language Processing) using the “self-attention” mechanism, exactly, used to capture relationships between words regardless of the distance entre eles, e esse foi o momento da bacia hidrográfica. Algo extraordinário viria de tudo isso logo depois, permitindo o treinamento dos modelos que conhecemos hoje: GPT, Claude, Gêmeos, etc. Tudo isso é precisamente neste território cinzento se você me entende. É técnico, matemático, mas ao mesmo tempo nos obriga a perguntar o que significa ser humano, o que é certo ou errado, qual é a definição real da palavra “inteligência” e “conhecimento”, levando -nos a questionar e refletir ainda mais sobre as “definições de palavras” e como elas são usadas hoje em dia. Vejo muitos sempre replicando um “conceito absoluto” como uma imposição, tratando a palavra como se fosse temporal. Na minha opinião, está muito além disso, é atemporal, se molde para cada época como algo flexível, expansível, contínuo e evolutivo. As palavras “inteligência” e “conhecimento” não eram, e não são entendidos de maneira absoluta. É algo muito mais amplo. Acredito que está presente dos processos biológicos primitivos até a possibilidade de se manifestar em sistemas artificiais, sabe? Claro, isso é apenas uma opinião. Eu descobri que adoro falar sobre isso. Sinto algo por dentro, exatamente o mesmo sentimento quando estou codificando. Talvez pareça estranho para alguns, mas escrever sobre a ética da IA ​​me dá a mesma energia que abrir o terminal, importando um pacote e começando a estruturar uma API em Go, sim, vá também. A diferença é que aqui os termos são dilemas, provocações, perguntas que permanecem em Goroutines, exatamente, aguardando um retorno porque não temos uma resposta imediata e absoluta definida. Eles precisam de reflexão e tempo para serem processados, sabe? Como fazemos em Go quando queremos executar algo de forma assíncrona. Todo mundo fala sobre ética quando o assunto é inteligência artificial. A preocupação de todos é clara e evidente. “Perguntas como e os direitos autorais?”, “Quem é responsável quando um sistema de IA comete um erro ou causa danos?”, “Quais são os limites da IA?” E tantos outros que conhecemos … A ética é discutida em belos relatórios, em PDFs corporativos, em conferências internacionais e mesmo na legislação emergente. Nada contra, mas eu prefiro ir direto ao ponto, e a pergunta seria: estamos realmente falando sobre ética? Ou estamos apenas tentando organizar conflitos de interesse que se chocam o tempo todo? O mito da ética universal, acredito que nunca alcançaremos a própria “ética”. Ética como um valor absoluto, como verdade universal, simplesmente não existe no mundo contemporâneo. O que existe são conflitos de ética. Por um lado, temos a ética da privacidade, por outro a ética da segurança. De um lado, a ética da liberdade, por outro, a ética do lucro. O que é ético para uma cultura pode ser imoral para outra, o que é aceitável para uma empresa pode ser intolerável para uma comunidade. E o que sabemos sobre a IA hoje não nasceu dentro de um vácuo neutro. Ai, como sabemos, precisa ser alimentada, treinada e controlada por humanos e organizações, eu digo “ainda”. E é aqui que o debate começa a ficar muito mais interessante. Quem realmente decide? Muitas pessoas pensam que, quando falamos sobre ética na IA, trata -se de ensinar a máquina a não causar danos. Linda, não é? Mas a verdadeira pergunta que deve ser feita é: quem define o que é “dano”? Quem tem o poder de determinar quais valores serão incorporados em algoritmos? Quem controla a máquina, quem lucra com ela, quem perde, quem decide o que é bom? Essas quatro perguntas simples expõem uma realidade que mais evita enfrentar. Entendo que é um assunto denso e complexo, mas temos que nos questionar o tempo todo sobre como vamos lidar com tudo isso. O caso NYT vs OpenAI – uma chamada de alerta Um exemplo recente mostra o tamanho do problema. Olha, o New York Times conseguiu obter uma ordem judicial forçando o OpenAI a armazenar todos os bate -papos, incluindo temporários (espere, temporários também? Eles podem ser armazenados? Eles não são temporários? Temporário para quem? Eu estava realmente curioso e em dúvida), dos usuários. Veja o que isso significa: uma decisão judicial pode forçar uma empresa global a mudar a maneira como lida com dados de milhões de pessoas, sem que essas pessoas tenham voz ou escolha. Imagine a dimensão disso. O que era temporário se torna permanente. Não foi privado? E agora se torna potencialmente acessível. Louco, não é? Há uma quebra de confiança e vulnerabilidade aumenta, tanto para indivíduos quanto para empresas. Você não pode tomar partido. Não estou tentando entrar nos méritos aqui, estou apenas demonstrando a fragilidade que existe e tudo é muito novo e recente, algo que passou a transformar radicalmente o que sabemos. E você sabe o que é mais sério sobre tudo isso? Até agora, não temos jurisprudência clara, não há uma estrutura regulatória sólida, não há nem mesmo consenso entre os países, imagine em nível global, lidando com situações como essa. E é aqui que acredito que estamos presos no limbo, exatamente em um para {}, ou seja, em um loop infinito sujeito a todos os tipos de danos, interesses momentâneos daqueles que têm mais poder. Preso no loop infinito, não tenho dúvidas sobre a complexidade que isso representa e, se observarmos em um contexto global, é ainda mais denso e mais complexo. O que vemos o tempo todo é que os interesses falam mais alto que os princípios universais. Para facilitar a compreensão: as empresas buscam lucro, os governos buscam poder, as comunidades buscam sobrevivência. E ai (inteligência artificial), com toda a sua capacidade de processamento e alcance, permanece no centro de tudo e é aí que vemos todos esses interesses colidindo o tempo todo como um jogo antigo “asteróides” – acredite, não é da minha época, mas eu adoro isso. É por isso que quando falamos sobre ética da IA ​​sem falar sobre política, economia e disputas de poder, você pode ter certeza de que não estamos falando da “mesma ética”. Vejo muitos códigos de conduta e práticas recomendadas como soluções absolutas. Eu acho: isso é realmente possível? Ou é apenas uma cortina de fumaça, porque eles não estão fazendo perguntas fundamentais para chegar direto ao ponto? Quem controla? Quem lucra? Quem é impactado negativamente? Quem decide o que é bom? Se não tivermos coragem de responder a essas perguntas, qualquer conversa sobre ética será apenas retórica. E o que percebo é que estamos desistindo, pouco a pouco, nossa autonomia. Literalmente entregando nossos dados em troca de “conveniência”. Também estou parte de tudo isso, também estou preso e refém de tudo, mas isso não significa que não podemos refletir e discutir tudo o que está acontecendo. Confiamos em plataformas sem saber como as regras realmente funcionam. Percebo que estamos permitindo que eles definam os limites da tecnologia em nosso lugar. Sinto que estamos terceirizando nossa própria responsabilidade e em algum lugar distante, bem escondido, longe, alguém estará cuidando da ética para nós. Mas eles estão realmente? E a reflexão sempre permanece: a ética da IA ​​não é um guia corporativo, não uma lista de verificação de boas intenções, mas um belo e enorme campo de batalha como o jogo “Call of Duty”. Onde os valores se enfrentam, onde os interesses se impõem e onde os seres humanos precisam tomar decisões complexas sobre quem será ou continuará sendo o protagonista, sabe? Não devemos fingir mais que a ética da IA ​​é apenas um belo capítulo em relatórios corporativos, mas sobre quem decidirá o futuro de nosso relacionamento com a tecnologia: nós ou eles? Como um bom usuário e desenvolvedor, é claro, sabemos que todo código tem uma possibilidade gigantesca de ter algum tipo de bug, especialmente o código gerado pela IA. A questão aqui é: vamos continuar depurando nossa humanidade na produção ou finalmente vamos controlar nosso próprio código ético? O que você acha? Estamos sendo protagonistas ou apenas usuários de um sistema que não entendemos completamente? Se você chegou até aqui, agradeço o coração e muito obrigado por essa reflexão conjunta. Compartilhe suas opiniões nos comentários e vamos construir esse debate juntos, linha por linha, como um bom código colaborativo. Espero que você goste! 🚀🚀 ☺️

Fonte

Você pode ter perdido