s
Mais do que inteligência bruta, o CEO da OpenAI aposta na escrita, no pensamento claro e na capacidade de formular boas perguntas como habilidades essenciais do futuro
INTELIGÊNCIA ARTIFICIAL

Clareza e criatividade: Sam Altman ensina como pensar melhor

Com uma rotina intensa e uso consciente da IA, o CEO da OpenAI mostra como manter a mente afiada por meio da escrita, da alternância entre colaboração e silêncio e da arte de fazer boas perguntas

Se ter clareza de ideias é uma das prioridades na sua lista de habilidades, Sam Altman tem algumas dicas para você. O CEO da OpenAI afirma que clareza mental, boa execução e comunicação eficaz são faces da mesma moeda — e tudo começa com um simples caderno espiral.

Durante uma conversa com o escritor e podcaster David Perell, Altman compartilhou seus hábitos pessoais de produtividade e as ferramentas que usa para manter o foco e a criatividade. Em vez de seguir modismos tecnológicos ou métodos sofisticados de gestão do tempo, ele prefere práticas simples e consistentes, que qualquer pessoa pode adotar.

1. Anotações como ferramenta de pensamento
Altman é um defensor ferrenho do hábito de escrever à mão. “Escrever é uma forma de pensamento externalizado”, afirma. Ele utiliza cadernos espirais com capa dura e papel de boa qualidade, pois gosta de rasgar as páginas já utilizadas e espalhá-las no chão para visualizar suas ideias em conjunto. Esse método de anotações soltas, segundo ele, ajuda a manter o foco no que está em andamento. “Não tenho cadernos completados”, disse. A simplicidade de seu sistema contrasta com a proliferação de apps e metodologias digitais, mas, para ele, o que importa é manter a mente organizada para pensar melhor.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.

CAIO virou cargo estratégico

Inteligência Artificial

CAIO virou cargo estratégico

Mas a maioria das empresas ainda não sabe o que fazer com ele. Sua ascensão expõe um paradoxo: a posição cresce três vezes mais rápido que a capacidade de usá-la para transformar o negócio de fato