Preguntas etiquetadas con neural-network

Las redes neuronales artificiales (ANN) están compuestas de 'neuronas', construcciones de programación que imitan las propiedades de las neuronas biológicas. Un conjunto de conexiones ponderadas entre las neuronas permite que la información se propague a través de la red para resolver problemas de inteligencia artificial sin que el diseñador de la red haya tenido un modelo de un sistema real.

10
¿Qué son las capas deconvolucionales?
Recientemente leí Redes totalmente convolucionales para la segmentación semántica por Jonathan Long, Evan Shelhamer, Trevor Darrell. No entiendo qué hacen las "capas deconvolucionales" / cómo funcionan. La parte relevante es 3.3. El muestreo ascendente es una convolución hacia atrás Otra forma de conectar salidas gruesas a píxeles densos es la …



6
¿Cuándo usar GRU sobre LSTM?
La diferencia clave entre un GRU y un LSTM es que un GRU tiene dos compuertas ( restablecer y actualizar compuertas) mientras que un LSTM tiene tres compuertas (es decir , compuertas de entrada , salida y olvido ). ¿Por qué hacemos uso de GRU cuando claramente tenemos más control …




3
Backprop a través de Max-Pooling Layers?
Esta es una pequeña pregunta conceptual que me ha estado molestando por un tiempo: ¿Cómo podemos propagarnos a través de una capa de agrupación máxima en una red neuronal? Me encontré con capas de agrupación máxima mientras revisaba este tutorial para la biblioteca nn de Torch 7. La biblioteca abstrae …


3
RNN vs CNN a un alto nivel
He estado pensando en las redes neuronales recurrentes (RNN) y sus variedades y las redes neuronales convolucionales (CNN) y sus variedades. ¿Sería justo decir estos dos puntos: Use CNN para dividir un componente (como una imagen) en subcomponentes (como un objeto en una imagen, como el contorno del objeto en …

2
¿Cuándo usar (Él o Glorot) la inicialización normal sobre init uniforme? ¿Y cuáles son sus efectos con Batch Normalization?
Sabía que Residual Network (ResNet) hizo popular la inicialización normal. En ResNet, se usa la inicialización normal de He , mientras que la primera capa usa la inicialización uniforme de He. He revisado el papel de ResNet y el documento "Profundizando en los rectificadores" (papel de inicialización de He), pero …


4
Redes neuronales: ¿qué función de costo usar?
Estoy usando TensorFlow para experimentos principalmente con redes neuronales. Aunque he realizado bastantes experimentos (XOR-Problema, MNIST, algunas cosas de Regresión, ...) ahora, me cuesta elegir la función de costo "correcta" para problemas específicos porque en general podría ser considerado un principiante. Antes de venir a TensorFlow, codifiqué algunos MLP completamente …


1
¿Cuál es la diferencia entre LeakyReLU y PReLU?
f(x)=max(x,αx) with α∈(0,1)f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, sin embargo, tiene ambas funciones en los documentos . Fuga ReLU Fuente de LeakyReLU : return K.relu(inputs, alpha=self.alpha) Por lo tanto (ver código ) f1(x)=max(0,x)−αmax(0,−x)f1(x)=max(0,x)−αmax(0,−x)f_1(x) = \max(0, x) - \alpha \max(0, -x) …