Puntos débiles del aprendizaje profundo.
El aprendizaje profundo o deep learning es campo de la inteligencia
artificial (IA) cuyo objetivo es emular el enfoque de aprendizaje que los seres
humanos utilizan para obtener ciertos tipos de conocimiento y aplicarlo en
sistemas computacionales.
A pesar de sus múltiples beneficios, han sido también numerosas
las críticas que ha recibido.
Gary marcus, en su paper “Deep Learning: A Critical
Appraisal”, defiende que el deep learning es limitado ya que para funcionar
necesita inmensas cantidades de información y de ejemplos. La imposibilidad de
proporcionarle toda la información hace que, a medida que se vaya enfrentando a
casos diferentes, la extrapolación de los ejemplos que posee para compararlos
con la realidad puede dar resultados imprecisos y conducir a error. Es por ello
que Marcus postula diez retos a los que se enfrenta el aprendizaje profundo:
1. Es un devorador de datos: Los algoritmos empleados no son
capaces de aprender términos abstractos, por lo que únicamente son entrenados
con ejemplos.
2. Es superficial. Al no comprender los conceptos, cuando se
encuentra sobre escenarios que difieren mínimamente de lo aprendido, las
soluciones ofrecidas son superficiales.
3. No distingue jerarquías. Esto aplica, por ejemplo, a
freses subordinadas.
4. No distingue indirectas. Necesita que el texto sea
explícito para desenvolverse con éxito.
5. El funcionamiento de una red neuronal profunda es
inaccesible a cualquier código de programación convencional.
6. No se emplean conocimientos previos al realizar el
algoritmo, únicamente se entrena al sistema a asociar outputs con inputs
mediante el aprendizaje de la relación entre ambos.
7. No es capaz de distinguir causalidad y correlación, tan
solo establece relaciones sin entender a que se debe.
8. Cree vivir en un mundo estable, no entienden de sectores
que no son predecibles.
9. Es una aproximación, sus soluciones no son fiables al
100%.
10. Es difícil de aplicar a la ingeniería actual debido a
motivos ya mencionados que no garantizan su correcta función en este campo.
Por otro lado, otros científicos también han sido críticos
con este campo. Hongjing Lu, profesor de
la UCLA, resalta la facilidad de engañar a estos sistemas debido a que sus
mecanismos de aprendizaje son mucho menos sofisticados que los de la mente
humana.
Por ejemplo, en experimentos de identificación de objetos en imágenes
se dan numerosos errores, identificando en una imagen de una tetera una pelota
de golf. Esto es debido que los humanos primariamente identificamos por la
forma, mientras que el sistema emplea otro método diferente al humano. Los
humanos también erraríamos en este experimento, pero el interpretar las imágenes
de manera diferente supone cometer errores diferentes a los que cometería un
ser humano, diferenciándose de esta forma tan evidente la red neuronal artificial
de la biológica.
Comentarios
Publicar un comentario