A melhor descrição que encontrei sobre o tema encontra-se no artigo Theoretical Foundations of Conformal Prediction, que descreve como:
A previsão conforme é uma abordagem estatística para quantificação de incerteza onde as previsões do modelo são acompanhadas por um intervalo ou conjunto, comunicando o grau de confiabilidade em qualquer previsão, sem depender de pressupostos sobre a certeza do modelo.
Portanto, é um framework de aprendizagem de máquina que permite quantificar incertezas e criar intervalos de predição. Isso possibilita melhores interpretações do modelo, maior segurança e garantias de probabilidade empírica nos resultados.
Suas vantagens são:
Existem dois tipos de categorias: Transductive Conformal Prediction (TCP) e Inductive Conformal Prediction (ICP).
Transductive Conformal Prediction (TCP): O TCP foi o método original de Previsão Conforme. Sua característica principal é que, para cada novo ponto de dados, o modelo é treinado inteiramente para cada resultado possível. Por exemplo, em um modelo binário de classificação, o modelo será treinado uma vez para o valor 0 e outra para o valor 1, calculando um score de não conformidade para cada caso.
<aside> 💡
Ou seja, o modelo irá ser treinado para cada rótulo e para cada ponto novo a ser testado!
</aside>
Esse processo garante alta precisão, pois considera toda a informação disponível para cada previsão. Este processo se assimila na técnica Jacknife, que faz uma é um processo de leave-one-out para estimação de variância e viés , aonde:
No contexto da Previsão Conforme, esta abordagem tem como objetivo as estimativas de incerteza, embora, em contra partida pode ser computacionalmente ineficiente dependendo da quantidade de dados tanto de treinamento, como para teste.