A reversão recorrente e a Propagação de equilíbrio são algoritmos para redes neurais recorrentes de ponto fixo que diferem em sua segunda fase. Na primeira fase, ambos os algoritmos convergem para um ponto fixo que corresponde à configuração onde a previsão é feita. Na segunda fase, a Backpropagation Recorrente calcula derivadas de erro, enquanto a Propagação de Equilíbrio relaxa para outro ponto fixo próximo. Neste trabalho, estabelecemos uma estreita conexão entre esses dois algoritmos. Mostramos que, em cada momento da segunda fase, as derivadas temporais das atividades neurais na Propagação de Equilíbrio são iguais aos derivados de erro calculados iterativamente em Recorrente de Backpropagação. Este trabalho mostra que não é necessário ter uma rede especial para o cálculo de derivadas de erro, e dá suporte à hipótese de que, nas redes neurais biológicas, os derivados temporais das atividades neurais podem codificar para sinais de erro.