Trabajar menos modelos de caja negra con Rich Caruana

Rich Caruana piensa profundamente en cómo la IA nos está guiando hacia el futuro. Pero, ¿qué tan útiles serán los modelos de caja negra para crear un futuro mejor?

Bienvenido de nuevo a WorkMinus, donde hablamos sobre lo que necesitamos dejar de trabajar y los cambios rápidos que puede realizar hoy para llegar a un mejor futuro del trabajo. Hoy nuestro invitado es Rich Caruana, investigador principal de Microsoft Research, y este episodio es WorkMinus ‘Black Box’ Models. Hola Rich, ¿cómo estás hoy?

¡Hola! ¿Como estas?

Estoy muy bien. Rich Caruana, estamos muy emocionados de tenerte en el programa. Nos llevarás a un nivel de tecnología mucho más profundo de lo que estamos acostumbrados en el programa. Hablaremos del aprendizaje automático, que es el área de especialización de Rich. Entonces, Rich, ¿por qué no comienza con el estado actual del aprendizaje automático y por qué el término está recibiendo más atención ahora?

Seguro. Así que todos ustedes probablemente hayan oído hablar del ‘aprendizaje profundo’, ese es el tipo de aprendizaje automático que se ha vuelto muy importante en los últimos diez años más o menos. Esa es una tecnología de red neuronal. Pero la razón por la que el aprendizaje automático está despegando en estos días es porque finalmente tenemos grandes conjuntos de datos, en algunos casos masivos. Tenemos una gran cantidad de potencia informática y hemos estado trabajando en el aprendizaje automático durante más de treinta años y finalmente obtuvimos una tecnología que realmente funciona bien en estos conjuntos de datos masivos. El aprendizaje profundo es lo que lo ha hecho particularmente emocionante, porque en ciertos dominios como el reconocimiento de voz o el reconocimiento de imágenes, rostros, cosas así, estas cosas están logrando precisiones en los últimos cinco a diez años que muchos de nosotros ni siquiera pensamos que fueran posibles. hace quince años. Así que este nuevo material de aprendizaje profundo realmente está funcionando increíblemente bien y ha hecho que el aprendizaje automático sea lo que se debe hacer en este momento.

Entonces, el aprendizaje automático, obviamente en los titulares, estamos aprendiendo sobre cómo las cosas se vuelven más precisas. Pero una de las cosas por las que defiende es que hay algo llamado modelos de «caja negra». Cuando llamas a ciertas formas de aprendizaje automático ‘caja negra’, ¿qué quieres decir con eso?

Entonces, hablemos de aprendizaje profundo. Estas redes neuronales, ahora, han llegado al punto en el que podrían tener cientos de capas de profundidad y tener un millón de parámetros en cada capa, por lo que estas redes neuronales profundas, ahora, podrían tener cien millones o más de parámetros. Y aunque comprendamos cómo funciona la red neuronal, la construimos, no significa que después de que haya aprendido a corregir esos parámetros observando un conjunto de entrenamiento masivo, realmente comprendamos lo que ha aprendido. Así que, en realidad, ha aprendido mirando a través de cientos de miles de imágenes. Ha aprendido a reconocer imágenes estableciendo esos cientos de millones de pesos en valores particulares. Y ningún ser humano puede mirar cientos de millones de pesos, que se combinan de manera compleja, y comprenderlo. Entonces, una red neuronal profunda es lo que consideramos un modelo de ‘caja negra’. Ha aprendido algo muy sofisticado dentro de él. Sabemos cómo funcionó el aprendizaje: somos nosotros quienes creamos el algoritmo. Pero no sabemos exactamente qué aprendió. No podemos verlo. Y si no podemos verlo solo por la escala. Es tan complicado que no pudimos ver exactamente cómo toma todas las decisiones que toma, cuando está tratando de hacer una predicción para un nuevo caso. Así que es realmente un problema de nuestros propios modelos que se han vuelto tan grandes y complejos ahora, que ni siquiera nosotros entendemos lo que contienen. Así que las llamamos ‘cajas negras’ porque no podemos ver lo que sucede dentro.

¿Sientes que, como eres el creador de esto, lo estás codificando, lo estás programando para hacer esto, pero está haciendo algo mucho más allá de lo que eres capaz de hacer? ¿Cómo se siente eso, como creador, como inventor, como programador?

Es interesante. Quiero decir, a veces estas cosas aprenden cosas que te sorprenden. Hay ciertos tipos de modelos, de los que hablaremos en unos minutos, que son más ‘caja blanca’, más caja abierta, que los puedes entender. Y a veces nos impresionan mucho las cosas que aprenden los modelos. Cosas que deberíamos haber sospechado estaban en los datos, pero no sabíamos que el modelo lo iba a aprender tan bien. Es realmente bueno que estas cosas alcancen una precisión que a veces los humanos ni siquiera pueden lograr. Ahora hay algunos dominios en los que tenemos tantos datos y nos esforzamos mucho en averiguar cómo entrenar los modelos, en los que los modelos realmente funcionan tan bien o mejor que los humanos. Y eso es algo impresionante.

He estado trabajando en esta área durante más de treinta años, y es emocionante haber visto el día en el que, de vez en cuando, la tecnología que hemos creado nos impresiona y supera nuestras expectativas.

Entonces, cuando se trata de superar las expectativas, significa expectativas. Voy a dibujar un marco aquí. Según mi comprensión del aprendizaje automático, lo que tiene son básicamente tres resultados diferentes que pueden suceder. Una es que la máquina va a aprender sobre lo que crees que un humano podría aprender si lo colocas en la misma situación. Obviamente, tal vez a una escala más masiva, pero los resultados son algo que está a la par con la inteligencia humana. Un segundo podría ser, cuando la máquina aprende algo más grande de lo que podríamos haber descubierto, por lo que aprende algo mejor de lo que podríamos haber hecho por nuestra cuenta. Y el tercero es cuando la máquina aprende algo que sabemos que es inexacto o que refleja un sesgo que no queríamos que aprendiera. ¿Puedes desglosar estos tres elementos diferentes y darnos algunas historias y algunos ejemplos de ellas?

Esos son tres escenarios geniales, geniales. A menudo, lo que sucede es que el modelo que entrenamos en realidad está haciendo los tres al mismo tiempo. Lo importante es ser feliz cuando aprendió cosas similares a las que nosotros hubiéramos aprendido y tener un rendimiento comparable al nuestro; estar emocionado cuando ha hecho algo más preciso que nosotros, o tal vez ha aprendido algo nuevo que no sabíamos, eso es fantástico; y luego ser un poco cauteloso cuando haya aprendido cosas que son sesgos en los datos que necesitamos reparar antes de seguir adelante e implementar el modelo y comenzar a usarlo.

Permítanme dar algunos ejemplos de estos. Entonces, si entrena un modelo en 100,000 imágenes, a menudo aprenderá a reconocer las partes de la imagen que usted y yo pensamos que son importantes. Si está aprendiendo a reconocer pájaros, tenderá a reconocer cosas como el pico, los tipos de plumas, el color, tal vez el tamaño del pájaro, cómo se ven las patas. Algo de lo que aprende será muy similar al tipo de cosas que usted y yo usaríamos si estuviéramos tratando de reconocer diferentes pájaros o de describirlos a otras personas. Algo de lo que podría aprender sería mejor. Podría aprender cosas sobre la textura de las plumas, que de alguna manera tú y yo no hubiéramos captado. Entonces, en realidad, podría aprender algunas cosas sobre la proporción de la forma de la curva de la espalda, o podría aprender algunas cosas que usted y yo no hubiéramos notado. Tal vez un ornitólogo experto hubiera sabido estas cosas, pero realmente puede aprender algunas cosas que tal vez tú y yo nos hubiéramos perdido. Y parte de la razón por la que estos modelos pueden ser tan sofisticados, bueno, en primer lugar, realmente se entrenan a menudo, en cientos de miles o incluso millones de imágenes. Y si lo piensas bien, ningún ser humano puede darse el lujo de mirar cientos de miles o millones de imágenes clasificadas. Llevaría demasiado tiempo y nos aburriríamos demasiado. Pero el modelo de aprendizaje automático realmente puede hacer eso. Puede permanecer allí durante días, si es necesario, revisando estas imágenes tratando de hacerlo bien.

La otra cosa es que el modelo de aprendizaje automático es muy bueno para mirar todo al mismo tiempo. Entonces, si bien tú y yo podríamos enfocarnos en el pico, el ojo, el pie y la forma del cuello, o algo así, podemos enfocar eso, y otras cosas, todo al mismo tiempo. Es muy democrático de esa manera: mira todo en la imagen en lo que puede encontrar señales. Y usa todas esas cosas al mismo tiempo, si es posible. Por eso, en realidad, puede ser más preciso que nosotros. Sin embargo, el sesgo puede ser demasiado democrático. Por ejemplo, existen clasificadores de imágenes que han aprendido a reconocer a los lobos. Lo que hacen es que aprenden a reconocer no solo al lobo en sí, el animal que está en la imagen, sino que también aprenden a reconocer el fondo. El lobo a menudo estará en un entorno que tiene nieve, mientras que un perro a menudo estará en un entorno que no tenga nieve. Y lo que sucedió es que el clasificador de lobos también usará esta información de fondo como parte de su clasificación para lobo versus perro. Y cuando ve un escenario nevado, si pones a un perro en un escenario clásico de lobo, en realidad podría decir: oh, eso es un lobo. Porque los lobos y los perros son vagamente similares, pero la configuración hará que parezca más un lobo para el modelo de aprendizaje automático. Porque el modelo de aprendizaje automático no es lo suficientemente inteligente como tú y yo, para decir: oh, se parece a mi perro. Da la casualidad de que está en el escenario que se parece más a un lugar donde encontraríamos lobos. Por lo tanto, no son lo suficientemente inteligentes como para separar lo que deberían y de lo que no deberían aprender. Aprenden de todo, y eso es bueno y malo.

Entonces, para darle algunos otros ejemplos de eso, resulta que cuando reconoce a las vacas, espera que las vacas estén sentadas en una escena de granja. La escena típica que esperaríamos en los Estados Unidos tendría pasto, tal vez un granero, tal vez una cerca, ese tipo de cosas. Pero si toma esa misma vaca y la coloca en un entorno muy diferente, por ejemplo, en la playa de arena junto al agua, es posible que no la reconozca como una vaca. Y eso es porque a pesar de que parece una vaca en la playa, no tiene suficiente experiencia con las vacas en la playa y está tomando demasiado en cuenta el fondo. Y si de repente tuviste esa imagen de la vaca en el espacio, orbitando la luna o algo así, no la reconocerá en absoluto porque el fondo no tiene ningún sentido. Nunca ha visto imágenes como esa. Mientras que tú y yo diríamos, oh, eso es una vaca en el espacio, ¿qué hace una vaca en el espacio? Así que aquí es donde los modelos no son tan inteligentes, porque toman literalmente en cuenta todo lo que pueden encontrar en señal. Y algunas de esas cosas no deberían tenerlas en cuenta.

Luego está el tercer problema son estos sesgos que pueden estar en los datos. Por ejemplo, creo que todos aceptamos que existe un sesgo en cualquier dato que utilicemos para contratar en este momento. Probablemente tendría sesgos de raza o género en las señales de entrenamiento. Del mismo modo, si tenemos datos recopilados del sistema de justicia penal. El sistema de justicia penal probablemente tiene prejuicios porque los humanos tienen prejuicios, y el sistema de justicia es básicamente humano. Entonces, cualquier tipo de sesgo de raza o género que se encuentre en esos datos, el modelo de aprendizaje automático no sabe lo que consideramos correcto o incorrecto para aprender. Entonces, el modelo aprenderá a ser tan sesgado como los datos.

Déjame darte una ventaja de esto. Trabajo mucho en aprendizaje automático para el cuidado de la salud. Entrenamos un modelo para tratar de predecir si tiene un riesgo alto o bajo de morir de neumonía. La idea es que, si está en alto riesgo, lo internaremos en el hospital, y si es de bajo riesgo, le daremos antibióticos, caldo de pollo y nos llamará en unos días si está no me siento mejor. Esa es realmente la atención más segura si es un paciente de neumonía de bajo riesgo. Y el modelo aprendió muchas cosas. Fue el modelo más preciso que pudimos entrenar. No se trataba de redes neuronales, era uno de estos modelos de «caja negra». Y decidimos no usarlo en pacientes reales, porque no sabíamos lo que había aprendido. Es un modelo de ‘caja negra’, no pudimos entenderlo. Y pensamos que es un poco arriesgado implementar esto. Parte de la razón por la que pensamos que era arriesgado era que alguien más estaba entrenando otro modelo que, aunque era mucho menos preciso, era completamente inteligible. Pudimos entender lo que ese modelo había aprendido. Y una de las reglas que aprendió, por cierto, aprendió muchas cosas buenas, pero una de las reglas que aprendió fue que, si tienes antecedentes de asma, tienes menos posibilidades de morir de neumonía. Es decir, parece que el asma es bueno para usted si tiene neumonía. Y eso debería parecer un poco extraño, ¿verdad?

No pensarías eso.

Sí, ¿por qué el asma sería bueno para ti? Bueno, resulta que si miras más detenidamente los datos, resulta que los asmáticos realmente tienen más posibilidades de sobrevivir que los no asmáticos. Pero, la razón por la cual, después de analizarlo más detenidamente, estamos bastante seguros de que la razón es que los asmáticos prestan más atención a cómo respiran. Entonces notan sus síntomas rápidamente. Y luego, tienen un médico que trata su asma. Los médicos dicen: Oh, eso es extraño, es un poco extraño que sus medicamentos no funcionen. Entonces consiguen una cita rápidamente. Y luego se les diagnostica rápidamente: Oh, no es asma lo que tienes, es neumonía. De hecho, los médicos los consideran pacientes de alto riesgo. Por eso reciben un trato muy agresivo. Pueden ser admitidos en el hospital, pueden recibir medicamentos extra fuertes, incluso pueden terminar en la UCI, en la unidad de cuidados intensivos, si se ven lo suficientemente enfermos. Entonces, creemos que lo que sucede es que los asmáticos notan los síntomas rápidamente, se les diagnostica con precisión rápidamente y luego reciben muy buen tratamiento rápidamente. Y no hay nada mejor si tiene una infección como la neumonía que recibir un diagnóstico rápido y un tratamiento de alta calidad.

Entonces esto nos preocupó. Pensamos que la red neuronal entrenada con los mismos datos probablemente haya aprendido que el asma es bueno para usted. Pero si vamos a usar este modelo, suponga que es un paciente y podríamos usar este modelo para predecir si tiene un riesgo alto o bajo. Y el modelo, debido a que tiene antecedentes de asma, dice que realmente parece que tiene un riesgo bajo. Entonces, es posible que no le proporcionemos un tratamiento rápido o un tratamiento tan agresivo. Y ahora, debido a que el hecho de que usted sea asmático en realidad le aumenta el riesgo, significa que estamos reteniendo el mismo tratamiento que lo hace de bajo riesgo en el sistema actual. Entonces, de hecho, si interviniéramos en su atención utilizando este modelo que predice que los asmáticos son de bajo riesgo, posiblemente perjudicaría a algunos asmáticos. Eso es algo malo, es un uso arriesgado del aprendizaje automático.

Ahora, el problema del asma, una vez que sepamos que está ahí, probablemente podamos solucionarlo. Lo importante es que la única razón por la que sabíamos que existía este problema de asma en los datos era porque alguien más entrenó a otro modelo que no era una «caja negra». Eso fue muy inteligible, y al mirar ese modelo reconocimos este problema. Entonces, incluso si solucionamos el problema del asma en la red neuronal, lo que podría ser difícil, pero tal vez podamos solucionarlo. ¿Qué más aprendió la red neuronal que sea igualmente riesgoso? Pero algún otro modelo, más transparente, no aprendió estas otras cosas también, por lo que en realidad no sabemos que tenemos otros problemas. Resulta que ahora tenemos estos modelos mucho más transparentes y muy precisos en los que hemos estado trabajando durante años aquí en Microsoft.

Y resulta que hay otros problemas en los datos. Resulta que tener una enfermedad cardíaca también es bueno para usted, si tiene neumonía. De hecho, es mejor para usted que tener asma. Y resulta que es exactamente la misma historia. Tuviste un infarto, digamos hace tres años. Te despiertas por la mañana y notas un poco de opresión en el pecho, un poco de dificultad para respirar. En una hora estará en la sala de emergencias. No pierdas el tiempo. Váyase de inmediato. En la sala de emergencias, usted llega al frente de la fila, está en una cama muy rápidamente con las sondas conectadas a usted. Y luego tienen buenas noticias, oh, buenas noticias, no vas a tener otro ataque cardíaco, es solo neumonía. Te consideran de alto riesgo porque tienes una enfermedad cardiovascular, por lo que te dan un gran tratamiento, y resulta que es incluso mejor que tener asma porque tienes que preocuparte aún más rápido. Entonces, nuevamente, no queremos modelar, y a veces el modelo es correcto, los pacientes con enfermedades cardíacas o asmáticos realmente tienen un riesgo bajo, si deja que la atención médica funcione como lo hace en este momento. Es decir, si estos pacientes realmente llegan a recibir atención más rápido y reciben un tratamiento muy agresivo. Pero si usara la predicción de bajo riesgo de este modelo, para luego intervenir en la atención de estos pacientes, y posiblemente significar que reciben atención más lenta o un tratamiento menos agresivo, en realidad estaría perjudicando a los mismos pacientes que de otro modo habríamos estado. Ayudar. Depende mucho de cómo vayas a usar el modelo.

Así que este es un caso en el que un modelo ha aprendido: lo llamaré un sesgo en los datos, eso es un problema de asma y enfermedades cardíacas. Es un verdadero patrón estadístico en los datos, al igual que los prejuicios de raza y género podrían ser patrones verdaderos en los datos. El modelo ha hecho su trabajo. Ha aprendido las estadísticas de la muestra. Y ahora, sin embargo, dado cómo vas a usar el modelo, lo reconociste: sería malo si hiciera este tipo particular de predicción, de esta manera. Tal como podríamos decidir: sería malo si este modelo exhibiera un sesgo racial o de género cuando hiciera una predicción. Así que podríamos querer arreglar eso. Entonces, el riesgo de los modelos de ‘caja negra’ es que aprendieron todo lo bueno y lo malo potencialmente al mismo tiempo. Y le encantaría ir y encontrar algunas de las cosas malas y arreglarlas antes de implementar el modelo. Y es por eso que muchos de nosotros estamos trabajando en formas de tomar un modelo de ‘caja negra’ y abrirlo, para que podamos explicar lo que sucede dentro. O desarrollar otras técnicas que podrían ser casi tan precisas como los modelos de ‘caja negra’, pero que son inteligibles desde el principio.

Entonces, Rich Caruana, en muchos sentidos de lo que estás hablando, sigo pensando en criar hijos. En el sentido de, estás tratando de averiguar lo que están aprendiendo, de dónde lo aprendieron, ¿son lo suficientemente inteligentes como para aprender lo que deberían o no deberían aprender? ¿De qué manera es esa una verdadera analogía, de qué manera es una analogía defectuosa?

Es interesante. Quiero decir, los niños aprenden cosas buenas, aprendieron cosas incorrectas y aprenden cosas malas, todo al mismo tiempo. Y como estamos al tanto de los niños, a medida que aprenden y crecen, con suerte reforzamos lo bueno, corregimos lo incorrecto e intentamos suprimir lo que consideramos malo. Y nos gustaría hacer exactamente lo mismo con nuestros modelos de aprendizaje automático. Pero si el modelo de aprendizaje automático es una ‘caja negra’, que se entrena durante unos días en un conjunto de datos masivo, y no podemos entender qué sucede dentro de la ‘caja negra’, entonces es muy difícil para nosotros recompensar lo bueno, trata de corregir los errores y suprime las cosas que consideramos malas. Por eso es importante tener métodos de explicación que nos permitan ver lo que está sucediendo dentro de los modelos, o diferentes tipos de métodos de aprendizaje que son más ‘caja abierta’ para empezar, donde realmente podemos entender lo que están aprendiendo.

Así que hable ahora con una persona de negocios que esté en una posición gerencial. Quieren aprovechar el aprendizaje automático. Pero, ¿cuál es el peligro que plantean los modelos de ‘caja negra’ para las empresas que quieren saltar al aprendizaje automático?

Entonces, estos problemas de los que hablé, como el asma y las enfermedades cardíacas relacionadas con la neumonía, o el sesgo de raza y género en los datos que tienen que ver con los patrones de contratación o con la justicia penal. Resulta que, cada conjunto de datos, no importa cuál sea, cada conjunto de datos tiene este tipo de problemas. Y cuando entrena un modelo, puede pensar que el modelo es increíblemente preciso. Entonces, lo que hacemos a menudo en el aprendizaje automático es, tenemos algunos datos, los cortamos a la mitad, entrenamos en la mitad y luego la prueba en la otra mitad. Y esperamos que la precisión en el equipo de prueba, la parte en la que no entrenó, se vea realmente, realmente bien. Posiblemente mejor que los humanos. Podría tener una precisión sobrehumana, que es lo que siempre buscamos. Ahora podría pensar, este modelo tiene una precisión muy alta, por lo tanto, es mejor que los humanos o tan bueno como los humanos; es seguro de implementar. Bueno, lo que sucede es que los datos, debido a que nuestros datos de prueba se parecen a nuestros datos de entrenamiento, tienen todos los mismos sesgos. Entonces, cuando probamos este modelo en neumonía utilizando parte de los datos de entrenamiento que se mantuvieron a un lado como el conjunto de pruebas, resulta que también tiene el patrón estadístico de que el asma y las enfermedades cardíacas son buenas para usted. O, si hay sesgo de raza o género en los datos, eso también estará en su conjunto de prueba. Por lo tanto, el modelo será recompensado en el conjunto de prueba, con una precisión muy alta por hacer predicciones que reconocemos que son inapropiadas, de una forma u otra.

Entonces, lo primero que debe preocuparle es: entrena un modelo, se ve en los datos de prueba como si fuera extremadamente preciso, como si fuera genial, como si le ahorrara dinero, como si fuera a ayudar a su empresa. Eres bueno para ir. Y, de hecho, lo que suele ser el caso es que parte de lo que ha aprendido es extremadamente bueno y apropiado. Pero alguna fracción, tal vez cinco, diez por ciento de lo que ha aprendido es inapropiado, y también está siendo recompensado con una precisión extra alta por esas predicciones incorrectas. Porque su equipo de prueba se parece a su equipo de entrenamiento. Entonces, la medida real de la precisión de estos modelos, y si son seguros de usar, una medida es que debe implementarlos. Así que tienes que usarlos en el mundo real. Tienes que hacer algo como un ensayo clínico limitado. Donde lo usa con mucho cuidado para una pequeña cantidad de predicciones. Mire detenidamente las predicciones que hace e intente evaluar cuál es su precisión en la naturaleza, en el mundo real. Esa precisión puede ser increíblemente diferente de la precisión que tiene en el laboratorio.

Para darte una analogía: en este momento, cuando entrenan autos autónomos para reconocer a los peatones y las carreteras y cosas así, en el laboratorio llevan estas cosas al punto en que su precisión es esencialmente perfecta. En el laboratorio, realmente obtienen estas cosas para que sean lo más perfectas posible. Son asombrosamente buenos. Pero luego, cuando implementas el modelo haciéndolo conducir en la calle, resulta que sucederán algunas cosas en el mundo real que nunca recopilaste en tus datos, o que nunca pensaste en tus simuladores. Y el mundo real es básicamente más complicado que la configuración de su laboratorio. Debido a eso, el automóvil autónomo terminará en algunos entornos para los que realmente no fue entrenado o probado adecuadamente. Entonces, le gustaría hacer un despliegue cuidadoso de estos autos autónomos, que es lo que tienden a hacer. Por lo general, todavía hay un humano detrás del volante, que en última instancia está a cargo de tomar el control cada vez que parece que el automóvil autónomo va a hacer algo mal. Y eso es porque reconocemos que la precisión en un conjunto de prueba en un entorno de laboratorio no refleja la verdadera precisión, sin embargo, que vamos a ver en el mundo real.

Por tanto, esta es una parte importante de las buenas prácticas. Consiga que la cosa sea lo más precisa posible en su empresa, en el laboratorio. Si es posible, intente comprender lo que ha aprendido el modelo. Haga que los expertos humanos examinen el modelo o sus predicciones. Y luego, realice una implementación muy cuidadosa de este modelo en el mundo real. Especialmente si se trata de un dominio crítico, donde la vida de las personas podría estar en riesgo si el modelo comete errores, como sería el caso de la atención médica o de los vehículos autónomos. Y luego, si el modelo parece tener una precisión sobrehumana en el mundo real, es fantástico. Todos buscamos el coche que conduce mejor que nosotros.

Excelente, excelente. Rich Caruana, todo esto me ha fascinado. Realmente aprendimos: reuniste mucha información en este corto tiempo. Mi gran conclusión es que sé que todavía soy más inteligente que las máquinas siempre que pueda reconocer que es una vaca en el espacio. Entonces, estoy feliz por eso, por ahora.

Lo que tienes es que tienes mucha más experiencia en el mundo real. Experiencia mucho más diversa. Y tienes eso que llamamos sentido común. Y la máquina, cada vez que le digo a un ser humano que el modelo de neumonía ha aprendido que el asma y las enfermedades cardíacas son buenas para usted, incluso si no saben nada de medicina, dicen: oh, eso no tiene sentido, ¿por qué lo haría? hace eso? Y el modelo es muy inteligente. Probablemente sea un predictor de riesgo más preciso que usted o yo, como no expertos. Y, sin embargo, el modelo no tiene el sentido común para cuestionar lo que aprendió. No sabe eso: vaya, ¿por qué el asma sería bueno para usted? Entonces, definitivamente hay cosas que los humanos tienen, que estos modelos de aprendizaje automático aún no tienen, incluso si los modelos parecen muy precisos. Los humanos tienen muchos conocimientos previos. Y mucha experiencia más amplia, y saben cuándo cuestionar lo que ha aprendido el modelo o cómo está haciendo predicciones. De una manera que el modelo no se cuestione todavía.

Fantástico. Charla muy, muy fascinante. Me encantó aprender más sobre este tema. Rich Caruana, ¿cómo puede la gente conectarse contigo para aprender más sobre tu investigación?

Soy bastante fácil de encontrar. Afortunadamente, mi nombre, Rich Caruana, es bastante único en el aprendizaje automático, por lo que si escribe mi nombre en cualquier navegador y, digamos, aprendizaje automático, es casi seguro que se me ocurra. Si no escribe mi nombre, terminará con un gran maestro de ajedrez que, desafortunadamente, no soy yo. Así que la forma más fácil de encontrarme es simplemente hacer una búsqueda por mí. Al final, terminarás con una de varias direcciones de correo electrónico, y resulta que todas me llegarán.

Ese es Rich Caruana , ¿verdad?

Eso es correcto, sí. Puedes encontrar mi perfil en Microsoft.

Bueno, Rich, muchas gracias por estar en el programa y esperamos que tengas un gran día.

Muchas gracias, lo disfruté.

Compartir:
Facebook
Twitter
Pinterest
LinkedIn
WhatsApp
Telegram
Email
Imprimir
también podrías leer:

Artículos relacionados

Reserva tu demo personalizado aquí

Deja tu información personal para agendar una demostración de Primera Base

Reclama tus misiones

Construye la digitalización paso a paso con El Legado de RRHH

Deja aquí tus datos personales para agendar tu demo

Deja aquí tus datos personales para ver el video