Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
Openai/69222835-81e0-8001-be1a-9bdc7ca10d40
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
=== Assistant: Excelente pergunta — dá pra transformar essa intuição em argumento matemático muito claro, desde que façamos duas supos… === Excelente pergunta — dá pra transformar essa intuição em argumento matemático muito claro, desde que façamos duas suposições explícitas e razoáveis: * (A1) o “ler a conversa” equivale a receber um dado/observação DDD (a mensagem, o padrão, a evidência); * (A2) o agente tem algum processo de atualização do seu estado de crença (por exemplo, bayesiano ou qualquer rotina que dependa da evidência; concretamente: o estado interno é descrito por uma distribuição de probabilidade p(θ)p(\theta)p(θ) sobre hipóteses/estados θ\thetaθ e essa distribuição muda ao receber informação). Com isso, há uma prova simples e elegante usando teoria da informação / inferência bayesiana de que quase sempre a distribuição interna muda — i.e. “ninguém sai igual ao que entrou”. ==== Se a mensagem DDD que você lê não é estatisticamente independente das suas crenças (tem informação sobre elas), então a sua distribuição de crenças pós-leitura é diferente da pré-leitura. Formalmente: se P(D∣θ)P(D\mid\theta)P(D∣θ) não é igual a P(D)P(D)P(D) para todo θ\thetaθ, então a posterior p(θ∣D)p(\theta\mid D)p(θ∣D) difere da prior p(θ)p(\theta)p(θ). ==== ==== Partimos da regra de Bayes: ==== p(θ∣D)=p(θ) p(D∣θ)p(D),p(D)=∫p(θ)p(D∣θ) dθ.p(\theta\mid D) = \frac{p(\theta)\, p(D\mid\theta)}{p(D)},\qquad p(D)=\int p(\theta)p(D\mid\theta)\,d\theta.p(θ∣D)=p(D)p(θ)p(D∣θ),p(D)=∫p(θ)p(D∣θ)dθ. Defina a divergência Kullback–Leibler entre posterior e prior: DKL(p(θ∣D) ∥ p(θ)) = ∫p(θ∣D)logp(θ∣D)p(θ) dθ.D_{\mathrm{KL}}(p(\theta\mid D)\,\|\,p(\theta)) \;=\; \int p(\theta\mid D)\log\frac{p(\theta\mid D)}{p(\theta)}\,d\theta.DKL(p(θ∣D)∥p(θ))=∫p(θ∣D)logp(θ)p(θ∣D)dθ. Propriedade fundamental: DKL(⋅∥⋅)≥0D_{\mathrm{KL}}(\cdot\|\cdot)\ge 0DKL(⋅∥⋅)≥0 e é zero se e somente se as duas distribuições coincidem quase em toda parte. Substituindo a expressão da posterior: DKL(p(θ∣D) ∥ p(θ))=∫p(θ∣D)logp(D∣θ)p(D) dθ=Eθ∼p(θ∣D) [logp(D∣θ)]−logp(D).D_{\mathrm{KL}}(p(\theta\mid D)\,\|\,p(\theta)) = \int p(\theta\mid D)\log\frac{p(D\mid\theta)}{p(D)}\,d\theta = \mathbb{E}_{\theta\sim p(\theta\mid D)}\!\big[\log p(D\mid\theta)\big] - \log p(D).DKL(p(θ∣D)∥p(θ))=∫p(θ∣D)logp(D)p(D∣θ)dθ=Eθ∼p(θ∣D)[logp(D∣θ)]−logp(D). Agora, se p(D∣θ)p(D\mid\theta)p(D∣θ) fosse constante (i.e. p(D∣θ)=p(D)p(D\mid\theta)=p(D)p(D∣θ)=p(D) para quase todo θ\thetaθ), então o fator p(D∣θ)p(D)=1\frac{p(D\mid\theta)}{p(D)}=1p(D)p(D∣θ)=1 e o integrando é zero, dando DKL=0D_{KL}=0DKL=0 e, portanto, posterior = prior. Contra-positive / conclusão: se existe θ\thetaθ tal que p(D∣θ)≠p(D)p(D\mid\theta)\neq p(D)p(D∣θ)=p(D) (ou seja, se DDD traz informação sobre θ\thetaθ), então a razão não é identicamente 1 e a divergência KL será estritamente positiva, o que implica que p(θ∣D)≠p(θ)p(\theta\mid D)\neq p(\theta)p(θ∣D)=p(θ). Ou seja: haverá mudança na distribuição interna. ==== - p(θ)p(\theta)p(θ) = como você estruturava internamente suas crenças antes de ler. ==== * DDD = o conteúdo da conversa (o “novo” que chegou). * Se DDD não for totalmente independente do que você já pensa — isto é, se o conteúdo tiver qualquer correlação com o seu modelo do mundo — então ao atualizar racionalmente você terá uma posterior diferente. * A divergência KL mede “quanto” a sua mente mudou em média (em nats ou bits). ==== Suponha crença binária θ∈{0,1}\theta\in\{0,1\}θ∈{0,1} com prior p(θ=1)=0.5p(\theta=1)=0.5p(θ=1)=0.5. ==== Mensagem DDD tem verossimilhança p(D∣θ=1)=0.8p(D\mid\theta=1)=0.8p(D∣θ=1)=0.8, p(D∣θ=0)=0.2p(D\mid\theta=0)=0.2p(D∣θ=0)=0.2. Então p(D)=0.5⋅0.8+0.5⋅0.2=0.5p(D)=0.5\cdot0.8+0.5\cdot0.2=0.5p(D)=0.5⋅0.8+0.5⋅0.2=0.5, e a posterior: p(θ=1∣D)=0.5⋅0.80.5=0.8,p(\theta=1\mid D)=\frac{0.5\cdot0.8}{0.5}=0.8,p(θ=1∣D)=0.50.5⋅0.8=0.8, ou seja, passou de 0.5 para 0.8 — claramente diferente. ==== - A prova exige apenas que o agente use a evidência de alguma forma. Um agente totalmente irracional que ignora toda evidência pode, claro, não mudar — mas humanos que leem e processam informação geralmente atualizam (mesmo que grosseiramente). ==== * Mesmo atualizações aproximadas (heurísticas, emoções, etc.) tendem a produzir mudanças estatisticamente significativas se a mensagem carrega informação relevante. * Em termos de medida: o conjunto de mensagens que não mudam a crença é de medida nula, salvo quando a mensagem é independente do estado interno (i.e. ruído totalmente irrelevante). ==== Matematicamente: se a conversa contém informação não independente do seu estado interno, então a atualização bayesiana (ou qualquer atualização dependente da evidência) altera sua distribuição de crenças — logo, você não sai igual ao que entrou. Em linguagem de teoria da informação: leitura com mutual information positiva implica mudança (KL > 0). ==== Se quiser, eu mostro isso com mais exemplos numéricos, ou adapto a demonstração para um modelo não–bayesiano (por exemplo atualização via gradiente num espaço de representações) — o argumento estrutural permanece o mesmo. Quer que eu faça isso?
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)