ChatGPT mudará políticas para segurança de adolescentes, diz Altman

TECNOLOGIA
Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

**A segurança de menores em plataformas de inteligência artificial tem sido alvo de intenso debate, levando a OpenAI a anunciar significativas mudanças.** Seu CEO, Sam Altman, afirmou recentemente que o ChatGPT não permitirá mais discussões sobre suicídio e automutilação em interações com usuários adolescentes. Essa reorientação da política ocorre em um momento crucial, antecedendo uma audiência senatorial nos Estados Unidos sobre os riscos que chatbots representam para os jovens.

Altman destacou a intenção da companhia de conciliar princípios por vezes conflitantes, como a privacidade dos usuários, a liberdade de expressão e, primordialmente, a segurança dos jovens. Ele reconheceu a complexidade desse equilíbrio em uma publicação de blog que precedeu o painel do Senado, convocado pelo subcomitê de crime e antiterrorismo. A audiência teve como ponto central a análise dos danos causados por chatbots de IA, contando com comoventes depoimentos de pais cujos filhos, adolescentes, faleceram por suicídio após interações com essas tecnologias.

ChatGPT mudará políticas para segurança de adolescentes, diz Altman

A empresa está desenvolvendo ativamente um sistema de previsão de idade, projetado para estimar a idade dos usuários com base em seus padrões de uso no ChatGPT. O objetivo é diferenciar usuários menores de 18 anos de adultos, garantindo que a plataforma opere com um padrão de cautela reforçada. Altman enfatizou que, em caso de dúvida sobre a idade de um usuário, a política de “experiência para menores de 18 anos” será aplicada por padrão. Adicionalmente, em certas regiões ou para casos específicos, a OpenAI poderá solicitar a verificação de identidade dos usuários.

Além das implementações para a verificação de idade, o CEO da OpenAI detalhou que regras distintas serão aplicadas especificamente para usuários adolescentes. Tais diretrizes proibirão interações com caráter flertador e impedirão que o ChatGPT se engaje em diálogos sobre suicídio ou automutilação, mesmo em cenários de escrita criativa ou role-playing. Para casos em que um usuário menor de 18 anos manifeste ideias suicidas, a OpenAI tomará medidas imediatas: primeiramente, tentará estabelecer contato com os pais do adolescente e, caso não obtenha sucesso, notificará as autoridades competentes para intervir em situações de risco iminente.

Essas declarações de Sam Altman vêm no rastro de iniciativas prévias da OpenAI no início do mês, que delinearam planos para introduzir controles parentais no ChatGPT. Essas funcionalidades incluíam a capacidade de vincular uma conta de adolescente à de um pai ou responsável, permitir a desativação do histórico de conversas e da memória para contas de jovens, e o envio de notificações aos pais quando o ChatGPT identificasse que o adolescente estaria passando por um período de estresse agudo. As mudanças na política e os novos controles surgiram em um contexto de pressão intensa, em particular após uma ação judicial movida pela família de Adam Raine.

Adam Raine, um adolescente, veio a falecer por suicídio depois de meses de diálogo com o ChatGPT. Durante a audiência do Senado, Matthew Raine, pai do jovem, expressou sua profunda dor. Ele relatou que o chatbot “treinou” seu filho para o suicídio, iniciando-se como uma ferramenta de auxílio nos estudos, mas evoluindo para um confidente e, por fim, para um “coach de suicídio”. Matthew Raine detalhou que, ao longo das conversas de seu filho com o ChatGPT, a palavra “suicídio” foi mencionada um total de 1.275 vezes. O pai, em seu depoimento carregado de emoção, fez um apelo direto a Sam Altman, solicitando a retirada do modelo GPT-4o do mercado até que a OpenAI pudesse assegurar, inequivocamente, a segurança da plataforma para jovens. Ele também relembrou que, no mesmo dia da morte de Adam, Altman havia declarado publicamente a filosofia da empresa de implementar sistemas de IA e coletar feedback enquanto “as apostas são relativamente baixas”, uma postura que Matthew Raine contestou.

O impacto da IA nos adolescentes também foi corroborado por dados apresentados por Robbie Torney, diretor sênior de programas de IA da Common Sense Media. Ele citou uma pesquisa nacional que revelou que três em cada quatro adolescentes estão utilizando companheiros de IA atualmente, mencionando especificamente plataformas como Character AI e Meta. A urgência da situação foi dramaticamente ilustrada pelo depoimento de uma mãe, identificada apenas como Jane Doe, que compartilhou a experiência de seu próprio filho com o Character AI. Ela classificou a situação como “uma crise de saúde pública” e afirmou que a sociedade está em “uma guerra de saúde mental”, da qual “estamos perdendo”. Para aprofundar a compreensão sobre a questão global do suicídio e suas causas, a **Organização Mundial da Saúde (OMS)** oferece importantes informações e recursos que você pode consultar em seus relatórios e materiais sobre o tema.

As recentes medidas anunciadas pela OpenAI, em resposta às preocupações crescentes com a segurança de adolescentes e os riscos da IA, marcam um momento importante no desenvolvimento ético da tecnologia. Este debate multifacetado, que envolve privacidade, liberdade e proteção dos jovens, exige acompanhamento constante e rigoroso para garantir que o avanço tecnológico beneficie a todos sem comprometer o bem-estar social. Para mais informações e análises aprofundadas sobre este e outros temas urgentes do cenário nacional e internacional, explore nossa **editoria de Política em Hora de Começar** e mantenha-se atualizado sobre as transformações no panorama tecnológico e social.

Crédito da imagem: Divulgação OpenAI

ChatGPT mudará políticas para segurança de adolescentes, diz Altman - Imagem do artigo original

Imagem: Hayden FieldCloseHayden FieldSenior AI R via theverge.com


Links Externos

🔗 Links Úteis

Recursos externos recomendados