![imagem1.png](https://static-lib.s3.amazonaws.com/cms/image1_78ab68323a.png)
A OpenAI publicou um novo post no blog se comprometendo a desenvolver inteligência artificial (IA) que seja segura e amplamente benéfica.
ChatGPT, alimentado pelo mais recente modelo da OpenAI, GPT-4, pode melhorar a produtividade, aumentar a criatividade e proporcionar experiências de aprendizado personalizadas.
No entanto, a OpenAI reconhece que as ferramentas de IA têm riscos inerentes que devem ser abordados por meio de medidas de segurança e implementação responsável.
Aqui está o que a empresa está fazendo para mitigar esses riscos.
Garantindo Segurança em Sistemas de IA
A OpenAI conduz testes rigorosos, busca orientação externa de especialistas e aprimora seus modelos de IA com feedback humano antes de lançar novos sistemas.
O lançamento do GPT-4, por exemplo, foi precedido por mais de seis meses de testes para garantir sua segurança e alinhamento com as necessidades dos usuários.
A OpenAI acredita que os sistemas de IA robustos devem ser submetidos a rigorosas avaliações de segurança e apoia a necessidade de regulamentação.
Aprendendo com o Uso do Mundo Real
O uso na vida real é um componente crítico no desenvolvimento de sistemas de IA seguros. Ao lançar novos modelos de forma cautelosa para uma base de usuários em expansão gradual, a OpenAI pode fazer melhorias que abordem problemas imprevistos.
Ao oferecer modelos de IA por meio de sua API e site, a OpenAI pode monitorar o uso indevido, tomar as medidas necessárias e desenvolver políticas detalhadas para equilibrar os riscos.
Protegendo Crianças e Respeitando a Privacidade
A OpenAI prioriza a proteção das crianças, exigindo a verificação de idade e proibindo o uso de sua tecnologia para gerar conteúdo prejudicial.
A privacidade é outro aspecto essencial do trabalho da OpenAI. A organização utiliza dados para tornar seus modelos mais úteis, ao mesmo tempo em que protege os usuários.
Além disso, a OpenAI remove informações pessoais de conjuntos de dados de treinamento e ajusta os modelos para rejeitar solicitações de informações pessoais.
OpenAI responderá às solicitações de exclusão de informações pessoais de seus sistemas.
Melhorando a Precisão Factual
A precisão factual é uma preocupação significativa para a OpenAI. O GPT-4 tem 40% mais chances de produzir conteúdo preciso do que seu antecessor, o GPT-3.5.
A organização se esforça para educar os usuários sobre as limitações das ferramentas de IA e a possibilidade de imprecisões.
Pesquisa Continuada e Engajamento
OpenAI acredita em dedicar tempo e recursos para pesquisar técnicas eficazes de mitigação e alinhamento.
No entanto, isso não é algo que ela pode fazer sozinha. A abordagem das questões de segurança requer amplo debate, experimentação e engajamento entre as partes interessadas.
OpenAI continua comprometida em incentivar a colaboração e o diálogo aberto para criar um ecossistema de IA seguro.
Criticas aos Riscos Existenciais
Apesar do compromisso da OpenAI em garantir a segurança e os amplos benefícios de seus sistemas de inteligência artificial, a postagem em seu blog causou críticas nas redes sociais.
Usuários do Twitter expressaram desapontamento, afirmando que a OpenAI não aborda os riscos existenciais associados ao desenvolvimento da IA.
Um usuário do Twitter expressou sua decepção, acusando a OpenAI de trair sua missão fundadora e se concentrar em uma comercialização imprudente.
O usuário sugere que a abordagem da OpenAI em relação à segurança é superficial e mais preocupada em agradar críticos do que em lidar com riscos existenciais genuínos.
Isso é extremamente decepcionante, vazio, uma jogada de marketing.
Vocês nem mencionam os riscos existenciais da IA que são a principal preocupação de muitos cidadãos, tecnólogos, pesquisadores de IA e líderes da indústria de IA, incluindo seu próprio CEO @sama. @OpenAI está traindo sua...
— Geoffrey Miller (@primalpoly) 5 de abril de 2023
Outro usuário expressou insatisfação com o anúncio, argumentando que ele minimiza problemas reais e permanece vago. O usuário também destaca que o relatório ignora questões éticas críticas e riscos relacionados à autoconsciência da inteligência artificial, implicando que a abordagem da OpenAI em relação a questões de segurança é inadequada.
Como fã do GPT-4, estou desapontado com seu artigo.
Ele passa por cima dos problemas reais, é vago e ignora questões éticas cruciais e riscos relacionados à autoconsciência da IA.
Eu aprecio a inovação, mas essa não é a abordagem correta para lidar com questões de segurança.
— FrankyLabs (@FrankyLabs) 5 de abril de 2023
A crítica ressalta as preocupações mais amplas e o debate em curso sobre os riscos existenciais colocados pelo desenvolvimento da IA.
Embora o anúncio da OpenAI destaque seu compromisso com segurança, privacidade e precisão, é essencial reconhecer a necessidade de um debate mais amplo para abordar preocupações mais significativas.