quinta-feira, 16 de março de 2023

ChatGPT: tecnologia, limitações e impactos

É preciso conhecer o alcance dos impactos sociais e políticos que a nova tecnologia reserva e criar uma regulamentação que permita proteger a sociedade de possíveis consequências adversas”, escrevem Virgilio Almeida, professor do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais; Ricardo Fabrino Mendonça, professor do Departamento de Ciência Política da Universidade Federal de Minas Gerais; e Fernando Filgueiras, professor da Faculdade de Ciências Sociais da Universidade Federal de Goiás

Em um artigo publicado na revista Nature em 2020, destaca-se uma observação que se aplica bem à chegada da nova onda de tecnologias de inteligência artificial (IA), popularizada pelo surgimento do ChatGPT (ferramenta de diálogo) no fim de 2022. Diz a autora: não pergunte se a IA é boa ou justa. A questão é mais ampla e deveria buscar explorar como a IA está mudando as relações de poder.


Essa pergunta se aplica diretamente ao ChatGPT. Para entender o impacto dessa tecnologia, além do deslumbramento inicial que capturou a imaginação das pessoas, são necessários alguns conhecimentos multidisciplinares. É importante conhecer não apenas a arquitetura tecnológica desses ‘chatbots’ como também saber interpretar o significado dessas ferramentas, decidir como devem ser aplicadas e, principalmente, em que mundo queremos viver com esses seres tecnológicos.

Portanto, precisamos contar com conhecimento de especialistas de vários campos da ciência, engenheiros da computação, pesquisadores das ciências sociais, das humanidades e do direito. Todos têm a contribuir.

Fundamentos da nova ferramenta

Os sistemas usados no processamento de linguagens naturais são conhecidos como modelos de linguagem. A definição clássica de um modelo de linguagem é uma distribuição de probabilidades sobre sequências de símbolos ou palavras. Embora conceitualmente um modelo de linguagem seja um objeto simples, na prática a atribuição de probabilidades significativas a todas as sequências de símbolos ou palavras é complexa e requer habilidades linguísticas extraordinárias e conhecimento da realidade. Para isso, esses modelos são treinados com grandes massas de dados textuais.

Para calcular a distribuição de sequências de símbolos ou textos, são usados modelos generativos, conjuntos de algoritmos que visam aprender a distribuição real de dados para então gerar probabilidades de novos textos com algumas variações. Como nem sempre é possível aprender a distribuição real dos dados, procura-se modelar um padrão que seja o mais próximo possível da distribuição real. Para aprender uma função aproximada de distribuição de probabilidades dos dados reais, são usadas redes neurais (modelo computacional baseado em unidades chamadas de neurônios artificiais, conectadas entre si para transmitir sinais).

O desenvolvimento de IAs baseadas em aprendizado de máquina (machine learning) já ocorre há algumas décadas. Quando o cientista da computação alemão Joseph Weizenbaum (1923-2008) criou, entre 1964 e 1966, o algoritmo Eliza, contribuiu com aspectos teóricos para o processamento de linguagem natural e construiu a percepção sobre os impactos dessas tecnologias na sociedade. Ao ver sua secretária no Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, fazer confidências para Eliza, mesmo sabendo que se tratava de um programa de computador, Weizenbaum percebeu o poder dessa tecnologia.

Leia a íntegra: Ciência Hoje

Fonte: Jornal da Ciência