Com novas diretrizes, OpenAI amplia as respostas do ChatGPT e flexibiliza restrições, reacendendo o debate sobre moderação de IA
OpenAI flexibiliza diretrizes do ChatGPT e amplia liberdade nas respostas
A OpenAI anunciou mudanças significativas na forma como treina seus modelos de inteligência artificial, incluindo o ChatGPT. A nova diretriz, divulgada na última quarta-feira (12), enfatiza a busca pela "liberdade intelectual", permitindo que o chatbot responda a uma gama mais ampla de perguntas e apresente múltiplas perspectivas sobre temas polêmicos. A atualização também reduz restrições que limitavam a abordagem de determinados assuntos, marcando uma nova fase na atuação da IA da empresa.
Mais liberdade para responder perguntas
Com a mudança, o ChatGPT passa a fornecer respostas sem evitar temas controversos ou tomar partido, permitindo que os usuários tenham acesso a diferentes pontos de vista. A OpenAI reforça que a intenção é dar mais autonomia ao público, ampliando a diversidade de informações disponíveis.
Mudanças na política de moderação
Outra alteração importante é a retirada dos alertas que informavam aos usuários quando suas perguntas violavam as diretrizes da plataforma. Com isso, a experiência se torna menos restritiva e mais fluida, reduzindo barreiras no uso do chatbot.
Impacto político e comercial
A decisão da OpenAI pode ser interpretada como uma resposta às críticas de censura feitas por setores conservadores. Além disso, especialistas apontam que a flexibilização pode fortalecer a relação da empresa com o governo dos EUA. Nos últimos meses, a OpenAI foi acusada de favorecer certas perspectivas políticas em suas respostas, o que gerou pressão por mudanças. O CEO da OpenAI, Sam Altman, já havia reconhecido anteriormente que o ChatGPT apresentava viés em algumas respostas e que a empresa trabalhava para corrigi-los. Agora, com a nova diretriz, a companhia busca garantir um leque mais amplo de informações sem restringir determinados temas.
Segurança x liberdade de expressão
As mudanças também reacendem o debate sobre moderação de conteúdo na inteligência artificial. Empresas como Meta e X (antigo Twitter) já flexibilizaram suas políticas para priorizar a liberdade de expressão, mas especialistas alertam que essa abordagem pode facilitar a disseminação de desinformação, discursos extremistas e até teorias da conspiração.John Schulman, cofundador da OpenAI, defende essa nova postura para o ChatGPT. O pesquisador Dean Ball, do Mercatus Center da George Mason University, compartilha dessa visão e afirmou ao TechCrunch: "A OpenAI está certa em pressionar na direção de mais discurso. À medida que os modelos de IA se tornam mais inteligentes e vitais para a maneira como as pessoas aprendem sobre o mundo, essas decisões se tornam ainda mais importantes". A OpenAI reforça que sua IA deve ser uma ferramenta informativa, e não uma entidade que molda a sociedade. No entanto, o equilíbrio entre liberdade de expressão e responsabilidade na disseminação de informações continua sendo um dos grandes desafios da tecnologia.