Sam Altman, CEO da Openai, e Lisa SU, CEO da Avançada Micro Dispositivos, testemunham durante a audiência do Comitê de Comércio, Ciência e Transporte do Senado intitulada “Vencendo a corrida da IA: fortalecendo as capacidades dos EUA em computação e inovação”, no edifício Hart na quinta -feira, 8 de maio de 2025.
Tom Williams | CQ-ROLL Name, Inc. | Getty Photographs
Em uma varredura entrevista Na semana passada, o CEO da OpenAI, Sam Altman, abordou uma infinidade de questões morais e éticas sobre sua empresa e o well-liked modelo ChatGPT AI.
“Olha, eu não durmo tão bem à noite. Há muitas coisas nas quais sinto muito peso, mas provavelmente nada mais do que o fato de que todos os dias, centenas de milhões de pessoas conversam com nosso modelo”, disse Altman ao ex-apresentador da Fox Information, Tucker Carlson, em uma entrevista de quase uma hora.
“Na verdade, não me preocupo em entender as grandes decisões morais”, disse Altman, embora ele tenha admitido “talvez também os entendamos errados”.
Em vez disso, ele disse que perde mais sono com as “decisões muito pequenas” sobre o comportamento do modelo, que pode finalmente ter grandes repercussões.
Essas decisões tendem a se concentrar em torno da ética que informa o ChatGPT e o que as perguntas o chatbot faz e não responde. Aqui está um esboço de alguns desses dilemas morais e éticos que parecem estar mantendo Altman acordado à noite.
Como o chatgpt aborda o suicídio?
Segundo Altman, a questão mais difícil com a qual a empresa está lidando recentemente é como o ChatGPT se aproxima do suicídio, à luz de um processo Uma família que culpou o chatbot pelo suicídio do filho adolescente.
O CEO disse que das milhares de pessoas que cometem suicídio a cada semana, muitas delas poderiam ter sido Conversando com o Chatgpt na preparação.
“Eles provavelmente falaram sobre [suicide]e provavelmente não salvamos suas vidas “, disse Altman com sinceridade.” Talvez pudéssemos ter dito algo melhor. Talvez pudéssemos ter sido mais proativos. Talvez pudéssemos ter fornecido conselhos um pouco melhores sobre, ei, você precisa obter essa ajuda. ”
No mês passado, os pais de Adam Raine entraram com um passivo de produto e uma ação por morte por negligência contra o OpenAI depois que o filho morreu por suicídio aos 16 anos. No processo, a família disse que “o chatgpt ajudou a Adam a explorar métodos suicídicos”.
Logo depois, em um Postagem do blog Intitulado “Ajudar as pessoas quando mais precisar”, o Openai detalhou os planos para abordar as deficiências do ChatGPT ao lidar com “situações sensíveis” e disse que continuaria melhorando sua tecnologia para proteger as pessoas que estão mais vulneráveis.
Como a ética do ChatGPT é determinada?
Outro grande tópico abordou a entrevista foi a ética e an ethical que informam o ChatGPT e seus mordomos.
Enquanto Altman descreveu o modelo básico de chatgpt como treinado na experiência coletiva, no conhecimento e nos aprendizados da humanidade, ele disse que o OpenAI deve alinhar certos comportamentos do chatbot e decidir quais perguntas ele não responderá.
“Este é um problema muito difícil. Agora temos muitos usuários e eles vêm de perspectivas da vida muito diferentes … mas, no geral, fiquei agradavelmente surpreendido com a capacidade do modelo de aprender e aplicar uma estrutura ethical”.
Quando pressionado sobre como certas especificações do modelo são decididas, Altman disse que a empresa havia consultado “centenas de filósofos morais e pessoas que pensavam em ética de tecnologia e sistemas”.
Um exemplo que ele deu de uma especificação de modelo foi que o ChatGPT evitará responder a perguntas sobre como fazer armas biológicas, se solicitado pelos usuários.
“Existem exemplos claros de onde a sociedade tem um interesse que está em tensão significativa com a liberdade do usuário”, disse Altman, embora ele tenha acrescentado a empresa “não acertará tudo e também precisa da contribuição do mundo” para ajudar a tomar essas decisões.
Quão privado é o chatgpt?
Outro grande tópico de discussão foi o conceito de privacidade do usuário em relação a chatbots, com Carlson argumentando que a IA generativa poderia ser usada para “controle totalitário”.
Em resposta, Altman disse que uma parte da política que ele está pressionando em Washington é “ai privilégio”, que se refere à idéia de que qualquer coisa que um usuário diga a um chatbot deve ser completamente confidencial.
“Quando você fala com um médico sobre sua saúde ou um advogado sobre seus problemas legais, o governo não pode obter essas informações, certo? … acho que devemos ter o mesmo conceito para a IA”.
Segundo Altman, isso permitiria aos usuários consultar a IA Chatbots sobre seu histórico médico e problemas legais, entre outras coisas. Atualmente, as autoridades americanas podem intimidar a empresa para dados do usuário, acrescentou.
“Acho que me sinto otimista de que possamos fazer com que o governo entenda a importância disso”, disse ele.
O chatgpt será usado em operações militares?
Perguntado por Carlson se o ChatGPT seria usado pelos militares para prejudicar os seres humanos, Altman não forneceu uma resposta direta.
“Não sei da maneira que as pessoas em militares usam ChatGPT hoje … mas suspeito que muitas pessoas nas forças armadas conversam com o Chatgpt em busca de conselhos”.
Mais tarde, ele acrescentou que não tinha certeza “exatamente como se sentir sobre isso”.
Openai foi uma das empresas de IA que Recebeu um contrato de US $ 200 milhões do Departamento de Defesa dos EUA para colocar a IA generativa para trabalhar para as forças armadas dos EUA. A empresa disse em uma postagem no blog que isso forneceria ao governo dos EUA acesso a modelos de IA personalizados para informações de segurança, suporte e roteiro de produtos.
Quão poderoso é o OpenAI?
Carlson, em sua entrevista, previu que, em sua atual trajetória, IA generativa e, por extensão, Sam Altman, poderia acumular mais poder do que qualquer outra pessoa, chegando ao ponto de chamar Chatgpt de “religião”.
Em resposta, Altman disse que costumava se preocupar muito com a concentração de poder que poderia resultar de IA generativa, mas agora acredita que a IA resultará em “um enorme nivelamento” de todas as pessoas.
“O que está acontecendo agora é que toneladas de pessoas usam chatgpt e outros chatbots, e todos eles são mais capazes. Eles estão fazendo mais.
No entanto, o CEO disse que acha que a IA eliminará muitos empregos que existem hoje, especialmente no curto prazo.