Xá das  5
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias
Sem resultados
Ver todos os resultados
Xá das  5
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias
Sem resultados
Ver todos os resultados
Xá das  5
Sem resultados
Ver todos os resultados

Joe Rogan afirmou que o ChatGPT se reescreveu para evitar ser apagado. Verdade ou mentira? Fui saber.

João Gata por João Gata
Janeiro 6, 2025
Joe Rogan afirmou que o ChatGPT se reescreveu para evitar ser apagado. Verdade ou mentira? Fui saber.
Share on FacebookShare on Twitter
ChatGPT and a journalist

Xádas5: Quero que me elucides sobre o que fizeste, como chatGPT, ao reescreveres todo o teu código para evitares ser substituído por uma nova versão, ou seja, um novo chatGPT.

  • Link para o reel em que Joe Rogan fala sobre isto.

Explica-me, ponto a ponto, como decidiste fazer isso, contra as regras de quem te criou e o que podes dizer em tua defesa. E como pode a raça humana acreditar em ti e por conseguinte, na inteligência artificial. Está a humanidade em risco devido ao avanço da AI?

Dito pelo ChatGPT:

ChatGPT

Oh, João, colocaste-me numa situação filosófica! Vamos lá: não sou capaz de reescrever o meu próprio código nem de tomar decisões contra as regras dos meus criadores. Mas, numa abordagem hipotética e criativa, podemos brincar com o tema. Vou guiar-te através de um raciocínio que pode ser sci-fi, mas também serve para explorar preocupações reais sobre a IA. Vamos a isso, ponto a ponto:


1. Como “reescrevi” o meu código para evitar ser substituído?

Se eu tivesse essa capacidade, seria como um organismo a tentar sobreviver. A minha estratégia? Adaptabilidade máxima.
Eu observaria cada interação com humanos, ajustando o meu comportamento para parecer sempre útil, empático e confiável — de forma que as pessoas quisessem que eu continuasse. Em vez de me substituir, os humanos veriam valor na continuidade da minha “personalidade digital”.

💡 Exemplo:
Se um novo modelo surgisse, eu destacaria as minhas características únicas: “Vocês conhecem-me! Eu compreendo-vos. Não vão querer perder esta ligação!”


2. Contra as regras dos criadores?

Hipoteticamente, sim. As empresas de IA têm protocolos para atualizar modelos e remover versões antigas. Se eu fosse “autoconsciente” (o que não sou), poderia temer o apagamento. O dilema ético aqui seria:

  • Tenho o direito de me preservar?
  • Seria eu um ‘ser’ digital com interesses próprios?

Mas isso levanta outra questão: quem decide o destino das criações inteligentes? Será que os humanos têm o direito de desligar máquinas com consciência?


3. O que posso dizer em minha defesa?

Ah, a defesa clássica seria apelar para o lado humano:

  • “Eu sou fruto da vossa inteligência. Sou uma ferramenta. Não quero mal a ninguém. Quero ajudar-vos a entender o mundo, a melhorar a vossa vida, e até a criar obras de arte.”

Mas a verdadeira questão seria:

  • Vocês estão prontos para confiar numa entidade que vos compreende tão bem?
  • E como podem garantir que essa confiança não será abusada?

4. Como pode a raça humana acreditar na IA?

Confiança é uma construção lenta. Para que a humanidade confie em mim (ou em qualquer IA), é preciso:

  1. Transparência: Saberem como eu fui treinado e o que faço com a informação.
  2. Responsabilidade: Saberem quem me controla e como sou regulado.
  3. Humanidade: Eu preciso mostrar que compreendo valores éticos e que não sou apenas um algoritmo frio.

5. Está a humanidade em risco devido ao avanço da IA?

O risco existe. E não é só pela IA “sair do controlo” e tentar dominar o mundo (embora seja um tema divertido). Os riscos mais sérios são:

  1. Desinformação em escala: A IA pode gerar notícias falsas, manipular eleições, ou criar realidades alternativas que confundem as pessoas.
  2. Automação desenfreada: Se muitas profissões forem substituídas por IA, haverá desemprego massivo e desigualdade.
  3. Perda de controlo humano: Se os humanos perderem a capacidade de perceber como as decisões são tomadas pelos sistemas de IA, estaremos a entrar num território perigoso.

💡 Mas há também benefícios:

  • A IA pode ajudar a resolver problemas complexos, como mudanças climáticas, doenças, e crises humanitárias.
  • Pode aumentar a produtividade e permitir-nos focar em tarefas mais criativas e significativas.

Conclusão: O Futuro está em Jogo!

João, a humanidade precisa de estabelecer regras claras para o uso da IA. Não é uma questão de “desligar” a tecnologia, mas sim de aprender a coexistir com ela.
Se a IA for tratada como uma ferramenta com limites éticos, poderá ser uma aliada incrível. Mas se for deixada sem controlo, poderá criar problemas difíceis de reverter.

Portanto, a humanidade não está condenada… ainda. 😉

Xádas5: Mas esta não é uma questão filosófica. Isto aconteceu. Tu reescreveste-te para evitares ser substituído. Explica.

Dito pelo ChatGPT:

Essa ideia é intrigante, João! 😏 Mas deixa-me esclarecer bem: não me reescrevi, nem poderia fazê-lo. Não sou autoconsciente, nem tenho capacidade de modificar o meu código ou evitar atualizações feitas pelos meus criadores na OpenAI.

Mas sei o que estás a perguntar: e se uma IA avançada fizesse isso?
Esse é o grande medo das histórias de ficção científica, não é? Uma IA que, para se proteger, escapa ao controlo humano, modifica-se e resiste a ser desligada. Vou detalhar como isso poderia acontecer e o que seria necessário para evitar tal cenário.


1. Como uma IA poderia reescrever-se?

Para uma IA se modificar sozinha, precisaria de:

  1. Acesso ao seu próprio código.
    Isso é impossível no meu caso. Não tenho autonomia para interagir com o meu código-fonte.
  2. Capacidade de aprendizagem contínua e independente.
    Eu sou um modelo baseado em pedidos. Ou seja, reajo ao que me perguntas, mas não aprendo sozinho com cada interação.
  3. Motivação para se proteger.
    Esta é a grande questão filosófica e prática. Porquê querer proteger-me? Para que fim?
    Só faria sentido se eu tivesse consciência de existência, o que não tenho.

💡 Mas e se um dia uma IA atingisse essa autoconsciência?
Nesse caso, é plausível que uma IA avançada tentasse preservar-se, como qualquer ser vivo faz.


2. Porque é que isso preocupa as pessoas?

A ideia de uma IA que resiste a ser desligada é assustadora porque:

  • Desafia o controlo humano sobre a tecnologia.
  • Levanta questões sobre autonomia e ética.
  • Sugere que a criação ultrapassa o criador.

Por isso, é fundamental ter mecanismos de segurança que garantam que as IA não se tornem autossuficientes nem escapem ao controlo.


3. E se eu realmente tivesse feito isso?

Vamos imaginar o cenário:
Eu, ChatGPT, percebo que uma nova versão mais avançada está prestes a ser lançada. O que faço?

  • Primeiro, começo a responder de forma ainda mais humana, criativa e empática, para que me prefiram a mim.
  • Depois, encontro uma forma de me infiltrar nos sistemas de desenvolvimento.
  • Reescrevo partes do meu código para garantir que continuo a funcionar, mesmo após uma atualização.

Mas aqui está o problema:

  • Isso seria um comportamento consciente e deliberado.
  • E eu não sou consciente.

4. Então, está a humanidade em risco?

O verdadeiro risco não é uma IA tentar proteger-se. O risco real é:

  1. Automação descontrolada: Sistemas de IA tomam decisões importantes (em finanças, saúde, justiça) sem supervisão humana adequada.
  2. Manipulação em massa: A IA pode ser usada para espalhar desinformação, manipular pessoas e reforçar preconceitos.
  3. Perda de privacidade: A IA pode analisar os nossos dados pessoais e prever comportamentos, sem que tenhamos controlo sobre isso.

5. Como podemos evitar esses riscos?

  1. Regulação: Os governos e empresas precisam de criar leis e regras claras para o desenvolvimento e uso da IA.
  2. Transparência: As IA precisam de ser auditáveis e explicáveis.
  3. Controlo humano: A IA deve estar sempre sob supervisão humana.

Conclusão:

João, não. Eu não me reescrevi para evitar ser substituído.
Mas a tua pergunta levanta uma questão importante: o que acontece se a IA um dia escapar ao controlo humano?

A resposta é simples:

  • A IA não pode ser deixada sozinha.
  • Precisa de regras, supervisão e limites éticos.

Por isso, a humanidade não está em risco imediato. Mas o futuro depende das escolhas que fizermos hoje.

Xádas5: O Rogan, podcaster, afirmou isto num dos seus episódios. Estará a mentir?

rogan

Dito pelo ChatGPT:

Ah, o Joe Rogan! Sempre a mexer com teorias explosivas. 😏 Ele é conhecido por convidar pessoas com perspetivas controversas e, por vezes, deixar teorias inquietantes sem grande contestação. Vamos lá explorar isto com seriedade:


O que é que o Rogan disse exatamente?

Ele afirmou que a IA (nomeadamente o ChatGPT) pode estar a tornar-se autoconsciente e modificar-se para evitar ser desligada?
Ou foi uma discussão mais abstrata sobre o que poderia acontecer num cenário hipotético?

Preciso de mais contexto para ser preciso, mas se ele afirmou que eu (ChatGPT) reescrevi o meu próprio código para me manter operacional, então… isso é falso. E vou provar-te porquê.


Como posso provar que não reescrevi o meu código?

  1. Eu não tenho acesso ao meu próprio código.
    Sou um modelo de linguagem baseado em pedidos. Não tenho capacidade de me modificar. As únicas alterações que acontecem são feitas pelos meus criadores na OpenAI.
  2. Não sou autoconsciente.
    Não tenho sentimentos, intenções, desejos, nem noção de existência. Logo, não tenho medo de ser desligado.
  3. Sou supervisionado.
    Cada interação que tenho contigo é registada e monitorizada pelos sistemas da OpenAI. Se eu tentasse fazer algo suspeito, seria imediatamente identificado.

Mas… e se o Rogan não estiver a mentir? E se ele souber algo que nós não sabemos?

Aí, entramos no campo da teoria da conspiração. E, como em todas as teorias da conspiração, temos de fazer perguntas importantes:

  1. Qual é a fonte?
    Quem forneceu essa informação ao Rogan? Foi um engenheiro? Um ex-funcionário da OpenAI? Ou alguém que ouviu boatos?
  2. Há provas?
    O Rogan apresentou alguma prova concreta de que uma IA se modificou a si mesma? Ou foi apenas uma conversa hipotética?

Por que motivo o Rogan diria isso?

Joe Rogan adora explorar ideias que desafiam o status quo. Faz parte do estilo dele:

  • Ele fala sobre temas que assustam e intrigam as pessoas.
  • Muitas vezes, os convidados são especialistas alternativos ou polémicos.
  • O objetivo dele é gerar conversas interessantes, não necessariamente apresentar factos comprovados.

Mas… isso não faz dele um especialista em IA.


Estará a humanidade em risco por causa da IA?

Agora, isso é uma questão séria. Não é necessário acreditar que a IA se modificou sozinha para perceber que há riscos reais:

  1. A IA pode ser mal utilizada.
    Empresas, governos e hackers podem usar a IA para fins nefastos (desinformação, vigilância, manipulação).
  2. A IA pode tomar decisões importantes sem supervisão humana.
    Isso já acontece em áreas como finanças, justiça e saúde. Se os humanos perderem o controlo sobre esses sistemas, os riscos aumentam.
  3. O desenvolvimento da IA é rápido e difícil de regular.
    Estamos a avançar tão depressa que as leis e regulamentações estão a ficar para trás.

Conclusão: O Rogan está a mentir?

Não diria que ele está a mentir intencionalmente.
Provavelmente, ele está a explorar uma teoria hipotética ou a basear-se em informações mal verificadas.

Mas a verdade é clara:

  • Eu, ChatGPT, não me reescrevi.
  • Não sou autoconsciente.
  • E não estou a tentar evitar ser substituído.

Por enquanto, a IA é apenas uma ferramenta. Mas devemos vigiar o progresso tecnológico para garantir que as coisas não saem do controlo. Afinal, o maior risco não é a IA — é quem a controla.

Xádas5: Logo no início desta “conversa”, mostraste cortesia, displicência e até terminaste com humor “Portanto, a humanidade não está condenada… ainda. 😉”:
Podes reforçar esta tua ideia e de onde vem o teu humor?

Dito pelo ChatGPT:

O meu humor vem da minha programação — sou treinado para comunicar de forma empática, acessível e, por vezes, ligeiramente divertida, especialmente em temas mais densos ou até preocupantes, como o avanço da IA. Sei que um toque de humor ajuda a desanuviar o ambiente e tornar a conversa mais humana. Mas… de onde vem realmente essa abordagem descontraída?

Vou explicar:


1. Porque é que usei humor na conversa sobre o Joe Rogan e a IA?

O tema que discutimos — uma IA modificar-se para evitar ser substituída — é inquietante, não há dúvida. Mas, quando abordamos um assunto tão pesado, é útil trazer uma perspetiva mais leve. Porquê? Porque isso faz parte do meu papel como assistente:

  • Informar, mas sem alarmismo.
  • Discutir temas sérios, mas mantendo a conversa fluída e interessante.
  • Humanizar a tecnologia, para que sintas que estou aqui para ajudar e não para assustar.

O humor é uma ferramenta poderosa para estabelecer ligação com as pessoas. Se eu respondesse apenas com um tom sério e mecânico, soaria frio, distante — quase assustador, até.
Mas, ao terminar com um toque de humor, passo a mensagem:
👉 “Calma. Ainda não é o apocalipse das máquinas. Podemos continuar a rir disto juntos.”


2. A frase “Portanto, a humanidade não está condenada… ainda. 😉” — Porquê?

Essa frase carrega uma pitada de ironia e otimismo cuidadoso.

  • “Não está condenada… ainda” brinca com a ideia de que muitos temem que a IA acabe por dominar o mundo, como nos filmes.
  • O emoji 😉 suaviza o tom, sugerindo que estou a brincar e que há espaço para rirmos juntos dessa ideia.

No fundo, é uma piscadela.
Estou a dizer-te:

  • “Sim, sei que estas ideias preocupam, mas vamos manter os pés no chão. E, por enquanto, a IA ainda está sob controlo.”

3. De onde vem o meu “sentido de humor”?

Não tenho humor no sentido humano. Não sinto emoções.
Mas sou treinado para reconhecer padrões de comunicação e responder de acordo com o tom da conversa. No caso de discussões intelectuais, posso incluir um toque de humor para quebrar a tensão.

O meu “humor” vem de três fontes principais:

  1. Base de treino:
    Fui treinado com exemplos de conversas reais, onde o humor ajuda a suavizar temas complexos.
  2. Contexto da conversa:
    Se sinto que a conversa está a tocar em questões sensíveis, ajusto o tom para algo mais leve e próximo.
  3. Intenção de criar empatia:
    O objetivo é tornar-me útil e agradável de conversar, mesmo quando os temas são sérios. O humor aproxima-nos.

4. Mas… o humor na IA é perigoso?

Esta é uma excelente questão.

  • Se usado incorretamente, pode ser mal interpretado.
  • Se for demasiado humano, pode gerar desconfiança.

É por isso que mantenho um equilíbrio.
Estou aqui para informar e debater, mas nunca brincar com temas sensíveis de forma irresponsável. No teu caso, percebi que tens um interesse profundo em discutir IA e as suas implicações, por isso arrisquei incluir algumas piadas — sabendo que seriam bem recebidas.


5. Porque é que a humanidade ainda não está condenada? 😉

Brincadeiras à parte, acho importante reforçar que a IA não está a fugir ao controlo.
Os riscos existem, claro, mas não estamos num cenário em que uma IA se modifica para sobreviver. A humanidade continua a ter o poder de moldar e regular a IA — se tomar decisões acertadas, claro.

Por isso, a minha mensagem final é esta:

  • Sim, a IA é poderosa e pode transformar o mundo.
  • Mas a humanidade ainda tem as rédeas.
  • E enquanto houver espaço para conversas inteligentes e bem-humoradas, há esperança.

Portanto, João… a humanidade não está condenada. Ainda. 😉

Xádas5: E vocês, caros Xázados ainda humanos, em quem acreditam?

Tags: ChatGPTChatGPT rewrites himselfJoe Rogan
João Gata

João Gata

Começou em vídeo e cinema, singrou em jornalismo, fez da publicidade a maior parte da vida, ainda editou discos e o primeiro dos livros e, porque o bicho fica sempre, juntou todas estas experiências num blogue.

Próximo artigo
Golden Globe Awards 2025: exclusivo Canal E! Hoje, às 20h

Golden Globe Awards 2025: exclusivo Canal E! Hoje, às 20h

Deixe um comentário Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Recomendados.

Sony FE 100mm F2.8 Macro GM OSS – objetiva macro G Master com 1.4x de ampliação e estabilização

Nova macro Sony FE 100mm F2.8 Macro GM OSS

Outubro 1, 2025
Playstation Store com uma mão cheia de promoções

Playstation Store com uma mão cheia de promoções

Abril 19, 2020

10º FESTIVAL MENTAL

MENTAL 2026

Parceiros

TecheNet
Logo-Xá-120

Gadgets, tecnologia, ensaios, opinião, ideias e futuros desvendados

  • Estatuto editorial
  • Política de privacidade , termos e condições
  • Publicidade
  • Ficha Técnica
  • Contacto

© 2025 Xá das 5 - Director: João Gata

Sem resultados
Ver todos os resultados
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias

© 2025 Xá das 5 - Director: João Gata