Redes Neuronales
Perceptrón

En primer lugar, vamos a introducir el modelo más simple que consiste en una sola neurona, generalmente llamado perceptrón. Hay n conexiones que conducen a la neurona que representa salidas de otras neuronas o estímulos desde el exterior. Cada una de las entradas aporta una información xi en la forma de un número real en cada momento. Los números representan valores de algunos atributos, si tenemos en cuenta la información de entrada del mundo circundante - espacio de entrada - todo vector x = [x1, ..., xn] caracterizará el objeto bajo estudio. Los atributos pueden ser representados por datos de la temperatura, la presión, el color, booleanos, etc.

Fig. 7.7: Esquema de una neurona con los pesos de sus respectivas conexiones

Cada conexión que conduce a la neurona se caracteriza por otro número real wi que representa un peso sináptico (la importancia) de una conexión, y cada neurona se caracteriza por un umbral θ. Una suma ponderada ξ = ∑ wi xi – υ (i= 1, ...‚ n) representa el estímulo en general, llamado potencial de una neurona. La neurona reacciona ante este potencial por una respuesta z = S(ξ), en la que S es una función de transferencia no lineal predeterminada, por lo general en la forma de una sigmoide (monótonamente creciente entre dos valores asintóticos, por ejemplo, 0 y 1, con la mayor derivada en el punto 0).

Las redes con múltiples neuronas pueden clasificarse de acuerdo a varios aspectos, nos ocuparemos de dos de ellos. El primero está dado por la topología de red, el otro por el modo de operación. De acuerdo con el primer aspecto, es posible introducir redes recurrentes (el grafo contiene ciclos, es decir, las salidas de algunas neuronas se presentan de nuevo a la red como estímulos) y otras redes, en las que las redes de múltiples capas son las más importantes, tienen neuronas distribuidas en capas, donde las salidas de las neuronas de una capa son las entradas de todas las neuronas de las próximas capas “superiores”; no hay ninguna otra conexión entre neuronas de dicha red.

El paradigma del Perceptrón

El perceptrón fue inventado por F. Rosenblatt en 1958. Se inspiró en el ojo humano y trató de desarrollar su modelo. Se partió del hecho de que la retina comprende sensores sensibles a la luz dispuestos en una matriz. Sus resultados dan lugar a células especializadas, llamadas daemons, genéticamente predeterminados para reconocer determinados tipos de patrones. Las salidas de los daemons se procesan en las células con un reconocimiento de un umbral, por lo que su salida es activa a partir de un cierto nivel de estímulo de la entrada.

Fig. 7.8: Reconocimiento mediante perceptrón

Una red de Perceptrones tiene tres capas, de acuerdo con su modelo fisiológico. La capa de entrada funciona como una compensación o como capa de ramificación. Su objetivo es asignar un campo bidimensional de sensores a vector unidimensional de elementos de procesador. La segunda capa está formada por estímulos detectores. Cada uno de ellos está conectado al azar a los elementos de la capa de entrada. Las ponderaciones asignadas a las entradas son constantes. El objetivo de los daemonds es detectar un estímulo específico.

Por último, la tercera capa contiene reconocedores de patrones (o perceptrones). Mientras que los pesos de la primera y segunda capa son fijos, los pesos de las entradas de las capas de salida pueden establecerse durante el entrenamiento. Para el aprendizaje de una red perceptrón, Rosenblatt sugirió un algoritmo de aprendizaje denominado del perceptrón.

Los elementos difieren de acuerdo a las capas. Las neuronas tienen una entrada (umbral) fijada a una constante de valor 1. Las otras entradas se conectan al azar a las salidas de la capa intermedia y sus pesos se pueden configurar. La característica de transferencia de un elemento de procesador de una capa perceptrón es el siguiente: la salida es cero si la suma ponderada de todas sus entradas es cero o negativa. Si no, la salida es uno. Puede usarse otra función de transferencia no lineal. En tal caso, si la suma ponderada de todas sus entradas es cero o negativo, la salida es –1, de lo contrario es 1.

Los pesos se establecen al azar. Si la salida es correcta, los pesos no cambian. Si la salida tiene que ser 1, pero es 0, se incrementan los pesos en todas las entradas activas. Si la salida tiene que ser 0, pero es 1, se decrementan los pesos en todas las entradas activas.

Las entradas están activas si su valor es > 0. El valor de cambio de peso depende de la opción elegida.

Además del perceptrón clásico que acaba de ser presentado, hay otros tipos de perceptrón - Minsky y Papert (MP-perceptrón) y Adaline (o Madaline) desarrollado por Widrow.