Puntos débiles del aprendizaje profundo.





El aprendizaje profundo o deep learning es campo de la inteligencia artificial (IA) cuyo objetivo es emular el enfoque de aprendizaje que los seres humanos utilizan para obtener ciertos tipos de conocimiento y aplicarlo en sistemas computacionales.

A pesar de sus múltiples beneficios, han sido también numerosas las críticas que ha recibido.
Gary marcus, en su paper “Deep Learning: A Critical Appraisal”, defiende que el deep learning es limitado ya que para funcionar necesita inmensas cantidades de información y de ejemplos. La imposibilidad de proporcionarle toda la información hace que, a medida que se vaya enfrentando a casos diferentes, la extrapolación de los ejemplos que posee para compararlos con la realidad puede dar resultados imprecisos y conducir a error. Es por ello que Marcus postula diez retos a los que se enfrenta el aprendizaje profundo:

1. Es un devorador de datos: Los algoritmos empleados no son capaces de aprender términos abstractos, por lo que únicamente son entrenados con ejemplos.

2. Es superficial. Al no comprender los conceptos, cuando se encuentra sobre escenarios que difieren mínimamente de lo aprendido, las soluciones ofrecidas son superficiales.

3. No distingue jerarquías. Esto aplica, por ejemplo, a freses subordinadas.

4. No distingue indirectas. Necesita que el texto sea explícito para desenvolverse con éxito.

5. El funcionamiento de una red neuronal profunda es inaccesible a cualquier código de programación convencional.

6. No se emplean conocimientos previos al realizar el algoritmo, únicamente se entrena al sistema a asociar outputs con inputs mediante el aprendizaje de la relación entre ambos.

7. No es capaz de distinguir causalidad y correlación, tan solo establece relaciones sin entender a que se debe.

8. Cree vivir en un mundo estable, no entienden de sectores que no son predecibles.

9. Es una aproximación, sus soluciones no son fiables al 100%.

10. Es difícil de aplicar a la ingeniería actual debido a motivos ya mencionados que no garantizan su correcta función en este campo.

Por otro lado, otros científicos también han sido críticos con este campo.  Hongjing Lu, profesor de la UCLA, resalta la facilidad de engañar a estos sistemas debido a que sus mecanismos de aprendizaje son mucho menos sofisticados que los de la mente humana.
Por ejemplo, en experimentos de identificación de objetos en imágenes se dan numerosos errores, identificando en una imagen de una tetera una pelota de golf. Esto es debido que los humanos primariamente identificamos por la forma, mientras que el sistema emplea otro método diferente al humano. Los humanos también erraríamos en este experimento, pero el interpretar las imágenes de manera diferente supone cometer errores diferentes a los que cometería un ser humano, diferenciándose de esta forma tan evidente la red neuronal artificial de la biológica.

Comentarios

Entradas más populares de este blog

Irene Curie

Historia de la escritura.

Capitán de barco