La semana pasada, la compañía Apple dio a conocer su nuevo modelo de
teléfono llamado iPhone X. En la presentación del producto se anunció
que, gracias al reconocimiento facial, el aparato empezará a funcionar
apenas reconozca el rostro de su dueño. Para eso, dijeron los
ingenieros, el chip electrónico del teléfono ha sido entrenado a
reconocer mas de mil millones de rostros humanos usando un sistema electrónico llamado circuito neuronal artificial.
En
los últimos años se ha venido usando ese tipo de circuitos neuronales
en máquinas que ayuden en el diagnóstico en algunas especialidades de la
medicina, especialmente en patología y radiología. La idea es que del
mismo modo que ahora un teléfono celular es capaz de reconocer el rostro
de una persona con una seguridad de uno en un millón, ¿será posible que
una máquina pueda reconocer tan bien como un ser humano una neumonía en
una placa de rayos X o un diagnóstico de cáncer de la próstata en una
biopsia?.
El conocimiento humano
Tratando de entender como es que los radiólogos aprenden a interpretar sus radiografías, investigadores de la Universidad de Sao Paulo
pusieron a 25 radiólogos en máquinas de MRI que estudiaban sus cerebros
mientras se les enseñaban imágenes de rayos X, siluetas de animales o
simplemente letras del alfabeto. Los resultados indicaron dos cosas, en
primer lugar, que el reconocimiento de las imágenes era casi instantáneo
(demora 1.33 segundos) y en segundo lugar, que a pesar de que el
reconocimiento de todas las imágenes usa la misma zona cerebral (lóbulo
parietal) el reconocimiento de diagnósticos médicos activa zonas
cerebrales mas complejas. Eso indica que hay dos niveles de
conocimiento, el de la imagen por si misma y el del significado de las
imágenes.
Ese hallazgo refuerza la idea del filosofo británico Gilbert Ryle
quien dijera en 1945 que el conocimiento existe en dos esferas, el del
“saber eso” y el del “saber cómo”. Por ejemplo, el saber reconocer un
carro es algo simple, pues implica saber que tiene cuatro ruedas, tiene
una carrocería, tiene un parabrisas, tiene un timón, etc. Este nivel de
conocimiento es el “saber eso”. Pero ya el saber diferenciar la marca
del carro, el modelo o el año de fabricación exige ya un nivel mas
sofisticado de conocimiento, el que según Ryle representa el “saber
cómo”, en este caso, el saber como diferenciar los diferentes tipos y
modelos de carro.
¿Pueden las máquinas aprender?
Desde
hace varios años, se han venido desarrollando máquinas que han
aprendido a reconocer imágenes, es decir el “saber eso” de Ryle. Así, se
tienen máquinas que leen citologías vaginales (Papanicolaou),
mamografías (sistema CAT por sus siglas en ingles), electrocardiogramas,
etc. El problema con estos sistemas es que solo han llegado al primer
nivel del conocimiento, es decir reconocer imágenes y patrones de un
solo elemento (células, imágenes de rayos X) pero no han aprendido a
diferenciar imágenes que sean diferentes de lo que se les ha enseñado.
En otras palabras, solo diferencian carros de bicicletas y motocicletas,
pero no han aprendido el “saber cómo” diferenciar las marcas o los
modelos de los carros ni su año de fabricación.
Un interesante estudio
del Dr. Sebastián Thrun de la Universidad de Stanford y publicado en la
revista Nature en febrero de este año, revela que dependiendo del tipo
de datos con que se alimenten a las máquinas, estas son capaces de
aprender. En primer lugar, se le enseñó a la máquina a reconocer 130,000
imágenes de todo tipo de lesiones de la piel (incluyendo cáncer, acné,
lunares, eczemas, etc.). En un segundo paso, los científicos alimentaron
a la máquina con el nombre de las 2,000 enfermedades que esas imágenes
representaban y las biopsias de 2,000 de esas lesiones. El resultado fue
que la máquina no solo aprendió a reconocer las imágenes de las
lesiones, sino que aprendió a relacionarlas con el nombre de las
enfermedades y sus respectivas biopsias. En otras palabra, la máquina no
solo aprendió el “saber eso”, sino que aprendió también el “saber cómo”
de Ryle. En otras palabras, no solo aprendió a reconocer los carros,
sino que aprendió a diferenciar las marcas y los modelos. A este tipo de
conocimiento avanzado de las máquinas, se le ha bautizado como
“conocimiento profundo”.
Validación del conocimiento profundo
Para
probar el nivel de conocimiento adquirido de sus máquinas, Thrun la
enfrentó primero a dos radiólogos entrenados en reconocer las mismas
lesiones. Luego de mostrarle a ambos 14,000 imágenes, la máquina predijo
con un 72% de certeza el diagnóstico de una imagen. Los radiólogos solo
lo hicieron en el 66%.
En un segundo experimento, la máquina fue
enfrentada con un grupo de 25 radiólogos para examinar 2,000 imágenes de
cáncer de la piel de tipo melanoma y la máquina fue mucho mejor que los
humanos, tanto en su sensibilidad, es decir casi no se le pasaban por
alto las imágenes de verdaderos melanomas y en su especificidad, es
decir, no llamaba melanoma a lo que no era.
Corolario
Si bien es cierto que al igual que los humanos, las máquinas (incluyendo la Watson de IBM o el DeepMind),
pueden aprender el “saber eso” y en base a esa experiencia pueden
desarrollar el “saber cómo” de Ryle, es importante entender que hasta
ahora, las máquinas no pueden desarrollar el tercer tipo de conocimiento que postuló Ryle.
Es el llamado “saber qué” o sea el saber para qué o porqué se hacen las
cosas, es decir el razonamiento que permite relacionar el “saber eso” y
el “saber cómo” con el medio ambiente y establecer el contexto de lo
que realmente sucede en la vida.
Fuente:
El Comercio (Perú)