A melhor descrição que encontrei sobre o tema encontra-se no artigo Theoretical Foundations of Conformal Prediction, que descreve como:

A previsão conforme é uma abordagem estatística para quantificação de incerteza onde as previsões do modelo são acompanhadas por um intervalo ou conjunto, comunicando o grau de confiabilidade em qualquer previsão, sem depender de pressupostos sobre a certeza do modelo.

Portanto, é um framework de aprendizagem de máquina que permite quantificar incertezas e criar intervalos de predição. Isso possibilita melhores interpretações do modelo, maior segurança e garantias de probabilidade empírica nos resultados.

Suas vantagens são:

Existem dois tipos de categorias: Transductive Conformal Prediction (TCP) e Inductive Conformal Prediction (ICP).

Transductive Conformal Prediction (TCP): O TCP foi o método original de Previsão Conforme. Sua característica principal é que, para cada novo ponto de dados, o modelo é treinado inteiramente para cada resultado possível. Por exemplo, em um modelo binário de classificação, o modelo será treinado uma vez para o valor 0 e outra para o valor 1, calculando um score de não conformidade para cada caso.

<aside> 💡

Ou seja, o modelo irá ser treinado para cada rótulo e para cada ponto novo a ser testado!

</aside>

Esse processo garante alta precisão, pois considera toda a informação disponível para cada previsão. Este processo se assimila na técnica Jacknife, que faz uma é um processo de leave-one-out para estimação de variância e viés , aonde:

  1. Remove de forma não aleatória uma observação por vez do conjunto de dados
  2. Calcula a estatística de interesse com as observações restantes
  3. Utiliza essas estimativas para avaliar o variância e viés do estimador

No contexto da Previsão Conforme, esta abordagem tem como objetivo as estimativas de incerteza, embora⁠, em contra partida pode ser computacionalmente ineficiente dependendo da quantidade de dados tanto de treinamento, como para teste.