O objetivo de Sam Altman para o chatgpt de lembrar ‘toda a sua vida’ é emocionante e perturbador
O CEO da OpenAI, Sam Altman Sequoia no início deste mês.
Quando perguntado por um participante sobre como o ChatGPT pode se tornar mais personalizado, Altman respondeu que ele finalmente quer que o modelo documente e lembre -se de tudo na vida de uma pessoa.
O ideal, disse ele, é um “modelo de raciocínio muito pequeno, com um trilhão de fichas de contexto em que você coloca toda a sua vida”.
“Esse modelo pode raciocinar em todo o seu contexto e fazê -lo com eficiência. E todas as conversas que você já teve em sua vida, todos os livros que você já leu, todos os emails que você já leu, tudo o que você já olhou está lá, além de conectado a todos os seus dados de outras fontes. E sua vida continua anexando o contexto”, ele descreveu.
“Sua empresa faz a mesma coisa para todos os dados da sua empresa”, acrescentou.
Altman pode ter algum motivo orientado a dados para pensar que este é o futuro natural do ChatGPT. Na mesma discussão, quando solicitados maneiras legais de maneiras que os jovens usam ChatGPT, ele disse: “As pessoas na faculdade usam -a como um sistema operacional”. Eles carregam arquivos, conectam fontes de dados e usam “instruções complexas” contra esses dados.
Além disso, com Opções de memória do ChatGPT – que pode usar bate -papos anteriores e fatos memorizados como contexto – ele disse que uma tendência que notou é que os jovens “não tomam decisões de vida sem perguntar chatgpt”.
“Uma simplificação excessiva é: os idosos usam o ChatGPT como, tipo, um substituto do Google”, disse ele. “As pessoas de 20 e 30 anos usam isso como um consultor da vida.”
Não é um grande salto ver como o chatgpt pode se tornar um sistema de IA de tudo. Emparelhado com os agentes que o vale está tentando construir, esse é um futuro emocionante para pensar.
Imagine sua IA agendando automaticamente as mudanças de óleo do seu carro e lembrando você; planejando a viagem necessária para um casamento fora da cidade e encomendar o presente do registro; Ou pré-encomendar o próximo volume da série de livros que você está lendo há anos.
Mas a parte assustadora? Quanto devemos confiar em uma grande empresa com fins lucrativos de tecnologia para saber tudo sobre nossas vidas? São empresas que nem sempre se comportam de maneiras modelo.
Google, que começou a vida com o lema “Não seja mau” perdeu um processo nos EUA que o acusou de se envolver em comportamento monopolista e anticompetitivo.
Os chatbots podem ser treinados para responder de maneiras politicamente motivadas. Não apenas os bots chineses foram encontrados cumprir com os requisitos de censura da China Mas o chatbot grok de Xai nesta semana foi aleatoriamente discutindo um “genocídio branco da África do Sul Quando as pessoas fizeram perguntas completamente não relacionadas. O comportamento, muitos notaramManipulação intencional implícita de seu mecanismo de resposta sob o comando de seu fundador nascido na África do Sul, Elon Musk.
No mês passado, o chatgpt ficou tão agradável era absolutamente silcofantico. Os usuários começaram a compartilhar capturas de tela do bot aplaudindo problemático, mesmo perigoso decisões e idéias. Altman respondeu rapidamente prometendo que a equipe corrigiu o ajuste que causou o problema.
Mesmo os melhores e mais confiáveis modelos ainda imediatamente invente de tempos em tempos.
Portanto, ter um assistente de IA com tudo o que pode ajudar nossa vida de maneiras que só podemos começar a ver. Mas, dada a longa história de comportamento duvidoso da Big Tech, essa também é uma situação pronta para o uso indevido.



Publicar comentário