Uno de los problemas que limitan el uso de las redes neuronales es el problema llamado “problema de la estabilidad variable” - la red no es capaz de aprender nueva información sin dañar la información ya almacenada. Este efecto es evidente para la red perceptrón multicapa. Cuando la red se entrena para un de nuevo modelo, toda la red se puede romper, es decir, toda la información que ya ha sido almacenada se pierde. Este efecto es causado por el cambio de los pesos de la red. Para entrenar la red para la nueva información requerida es necesario empezar de nuevo. Esto puede presentar un retraso considerable de tiempo, horas o incluso días. La red que vamos a describir atiende el problema de la estabilidad de variables bastante bien. Esta red fue desarrollada por el matemático y biólogo S. Grossberg. La Teoría de Resonancia Adaptativa (ART) fue desarrollada para el modelado de arquitecturas paralelas grandes para la red de auto-aprendizaje y para el reconocimiento de patrones. Una propiedad de la red de ART es que puede cambiar entre el modo de alerta y estable sin dañar la información ya almacenada. El modo de alerta es un modo de aprendizaje, en el que los parámetros iniciales pueden ser modificados. El modo estable es un modo, en el que la red está fija y se comporta como un clasificador acabado.
Ten en cuenta que la red ART existe en tres modificaciones básicas (ART-l, ART-2 y ART-3). La modificación básica, que se describe aquí, es la ART-1; la ART-2 no funciona con valores binarios, pero si con reales, ART-3 utiliza una estructura similar a la ART-2, pero el modelo de esta red es descrita por ecuaciones, que expresan la dinámica de portadores químicos de información. Esta modificación supone que las entradas a esta red vienen continuamente y cambian continuamente.