Antes de mais nada, queria compartilhar uma reflexão importante. Minha jornada com ciência de dados me fez perceber algo interessante: quanto mais me aprofundava nesse campo, mais distante ficava do pensamento estatístico tradicional. A razão? A estatística trabalha fundamentalmente com a ótica da incerteza e nossa compreensão das limitações dos resultados.
Segundo o artigo https://www.nature.com/articles/nmeth.2613:
A estatística nos ajuda a responder esta questão. Ela nos fornece uma maneira de modelar quantitativamente o papel do acaso em nossos experimentos e representar dados não como medições precisas, mas como estimativas com erro. Também nos mostra como o erro em valores de entrada se propaga através dos cálculos. A aplicação prática deste framework teórico é associar incerteza ao resultado dos experimentos e atribuir níveis de confiança a afirmações que generalizam além das observações.
Percebi que estava sempre focando no acerto, e não no erro! Pode parecer uma reflexão simples, mas isso muda totalmente nosso paradigma diário: devemos buscar estar menos errados, não mais certos. É preciso aceitar viver sob a incerteza, reconhecendo o papel do erro. Altay Souza enfatiza esse conceito frequentemente em suas aulas de Estatística Aplicada à Psicobiologia, pela UNIFESP. Para entender mais esse entendimento, recomendo suas oito primeiras aulas — serão úteis para a vida inteira, prometo.
Andrey Kolmogorov, matemático nascido no século XX, foi crucial para o desenvolvimento da ciência moderna. Suas contribuições inestimáveis abrangem desde a biologia, topologia e geologia até a teoria da probabilidade. Ele revolucionou nossa compreensão científica de tal forma que, sem suas descobertas, este artigo possivelmente nem existiria. Kolmogorov estabeleceu não apenas a definição matemática da probabilidade por meio de seus axiomas, mas também descreveu o Teorema Central do Limite. Seus axiomas não são meras construções matemáticas — são padrões fundamentais observados na natureza, comparáveis às leis da física como a gravidade. Assim como podemos observar e comprovar a gravidade empiricamente, os axiomas probabilísticos se manifestam em fenômenos naturais, da genética à mecânica quântica, demonstrando sua validade universal.
A teoria da probabilidade de Kolmogorov marcou a matemática moderna ao estabelecer uma base axiomática rigorosa para seu estudo. Até seu trabalho em 1933, a teoria carecia de fundamento matemático formal. Com sua obra "Fundamentos da Teoria da Probabilidade", ele unificou diferentes interpretações da probabilidade em uma única estrutura matemática coerente.
Sua abordagem revolucionária combinou a teoria dos conjuntos com a teoria da medida para definir probabilidade de forma matematicamente precisa. Essa formalização estabeleceu a teoria da probabilidade como um campo independente da matemática, permitindo representar eventos probabilísticos através de funções.
Sua contribuição vai além da formalização matemática — oferece um framework que permite modelar fenômenos aleatórios em diversos campos científicos, da física quântica à biologia molecular, economia e ciência da computação.
Para fundamentar isso, ele estabeleceu três axiomas da teoria da probabilidade:
Não-negatividade: A probabilidade de qualquer evento deve ser maior ou igual a zero.
$$ P(A) ∈ ℝ+ $$
Normalização: A probabilidade do espaço amostral total (Ω) é igual a 1.
$$ P(Ω) = 1 $$
Aditividade: Para eventos mutuamente exclusivos, a probabilidade da união é igual à soma das probabilidades individuais.
$$ P(A ∪ B) = P(A) + P(B) $$
<aside>
Estes axiomas são importantes porque:
Com base nesses axiomas, ele enunciou o Teorema do Limite Central, que demonstra:
Isso nos permite utilizar amostras para estimar parâmetros populacionais, eliminando a necessidade de dados censitários.
Para ver a prova visual do TLC, basta clicar no link abaixo. Você perceberá que quanto mais amostras forem coletadas, mais a distribuição da amostra tenderá a uma normal, com sua média convergindo para a média da população.