Tanto si se aplica a máquinas como a cerebros humanos, el término “multitarea” es un nombre inapropiado. A pesar de las afirmaciones de marketing, su computadora no realiza múltiples tareas a la vez, y tampoco lo hace su cerebro. Este último simplemente no puede, mientras que el procesador de una computadora divide cada ciclo de reloj y asigna una porción de tiempo (200 milisegundos, digamos) a cada tarea. Y así sigue dando vueltas hasta que todo está hecho. La ineficiencia inherente de tener que dividir el tiempo del procesador es la razón por la que su computadora se ralentiza cuanto más le pide que haga.
El cerebro responde de la misma manera cuando hay varias tareas que compiten por captar nuestra atención. No tenemos la energía para hacer dos cosas a la vez de manera eficaz, y mucho menos tres o cinco. Si lo intentamos, cada tarea no será tan buena como si hubiéramos prestado toda nuestra atención a cada una y las hubiéramos ejecutado de manera secuencial.
Según Cal Newport, profesor de informática en la Universidad de Georgetown, el simple hecho de pasarse de un lado a otro para revisar la bandeja de entrada y volver a entrar en ella puede ser tan perjudicial como realizar varias tareas a la vez. “Cuando mirabas la bandeja de entrada de correo electrónico durante 15 segundos, iniciabas una cascada de cambios cognitivos”. Newport afirma que incluso un cambio mínimo de una tarea actual a otra es “veneno para la productividad”.
Clifford Nass, profesor de la Universidad de Stanford, vio con visión de futuro que la multitarea es particularmente insidiosa. Uno de sus estudios más citados suponía que quienes realizan múltiples tareas a la vez se destacan por ignorar información irrelevante y cambiar de tarea, y por lo tanto tienen una mejor capacidad de memorización. Se equivocó en todos los aspectos: “Nos quedamos absolutamente impactados”, dijo a “Frontline” en 2009. “Las personas que realizan múltiples tareas a la vez son terribles a la hora de ignorar información irrelevante; son terribles a la hora de mantener la información en su cabeza de forma ordenada y prolija; y son terribles a la hora de cambiar de una tarea a otra”.
Nass supuso que las personas dejarían de intentar realizar varias tareas a la vez una vez que se les mostrara la evidencia de lo mal que lo hacían. Pero sus sujetos no se inmutaron en absoluto y siguieron creyéndose excelentes en la realización de varias tareas a la vez y “capaces de hacer cada vez más y más”. Si los individuos en un experimento controlado son tan inconscientes y se niegan a cambiar cuando se enfrentan a la prueba de su pésimo desempeño, entonces ¿qué esperanza tenemos el resto de nosotros mientras nos abrimos paso a través del mar diario de distracciones digitales?
Mirar televisión mientras se usa otro dispositivo inteligente es tan común que más del 60 por ciento de los adultos estadounidenses participan regularmente en «multitarea multimedia». En comparación con los controles, los que hacen múltiples tareas multimedia tienen más problemas para mantener la atención y una tendencia a olvidar ; su corteza cingulada anterior (una estructura cerebral involucrada en dirigir la atención) es físicamente más pequeña que la de los controles . Otro estudio encontró que cuanto más minutos pasaban los niños en la multitarea de la pantalla a la edad de 18 meses, peor era su cognición preescolar y más problemas de conducta mostraban a los cuatro y seis años. Los autores recomiendan una crianza positiva y evitar la multitarea de la pantalla de los medios antes de los dos años.
Los desafíos de realizar varias tareas a la vez son especialmente graves en campos como la medicina, donde la atención a los detalles puede suponer la diferencia entre la vida y la muerte. Un ejemplo contundente es el de una sesión de formación con estudiantes de medicina de la Universidad George Washington en la que analizamos un incidente que, según se informó, ocurrió en otro conocido hospital universitario. Me contaron la historia durante nuestras sesiones de desarrollo del profesorado, aunque no se revelaron los detalles específicos por cuestiones de privacidad y confidencialidad.
Según cuenta la historia, durante las rondas de atención en la sala de oncología pediátrica, el zumbido de un mensaje entrante distrajo a la médica residente, que estaba ingresando las prescripciones de medicación y actualizando el historial electrónico. Era una nativa digital; el mensaje se refería a la próxima fiesta de una amiga, nada crucial en el contexto del momento. Pero captó su atención momentáneamente el tiempo suficiente para limpiar su memoria de trabajo. (Cuando te interrumpen, no tienes la oportunidad de limpiar tu memoria de trabajo por completo; siempre queda un remanente de atención, enganchado a la tarea anterior. Cuanto mayor sea el residuo al que te aferras, mayores serán los costos del cambio). El equipo clínico que estaba junto a la cama estaba discutiendo sobre cambiar la dosis de un fármaco intravenoso, y ella no ingresó el cambio. Cuando se descubrió la omisión, la paciente de cuatro años había desarrollado una insuficiencia renal y había entrado en estado de shock. En un entorno diferente de 257 enfermeras y 3.308 pacientes pediátricos de cuidados intensivos, se produjeron errores de medicación cuando se recibía un mensaje de texto o una llamada telefónica en el teléfono institucional asignado a una enfermera «en los 10 minutos previos a un intento de administración de medicación».
Todos hemos experimentado cómo los historiales médicos electrónicos roban tiempo a la interacción mutua entre médico y paciente, un ejemplo de las consecuencias negativas de la multitarea. En lugar de mirar, escuchar y poner manos a la obra, los médicos ahora deben teclear y marcar casillas en múltiples pantallas para satisfacer las demandas burocráticas . Un médico puede pasar todo el tiempo de la consulta frente a una pantalla de computadora. Lógicamente, no debería importar si un médico toma notas escritas a mano o electrónicamente. Pero sí importa porque «oír» no es lo mismo que «escuchar». El primero es un acto pasivo de percibir sonidos audibles, mientras que el segundo es un esfuerzo activo por comprender la perspectiva de otra persona, lo que está sintiendo y tratando de comunicar.
Los registros electrónicos exigen tanta atención y memoria de trabajo del médico que escuchar con atención se ha vuelto imposible. Obligados a concentrarse en la pantalla, no pueden leer las expresiones faciales y el lenguaje corporal del paciente. Los médicos han manejado interrupciones durante décadas sin cometer este tipo de errores. Pero las distracciones basadas en pantallas son de otro tipo, y conducen a errores más frecuentes durante situaciones que exigen atención. Algo poderoso se apodera del llamado foco de atención. Tal vez sea hora de resucitar una frase que todos los padres alguna vez supieron: «Mírame cuando te hablo».
En la Universidad George Washington, un colega y yo damos clases a pequeños grupos de estudiantes de medicina durante sus cuatro años de estudio. Les enseñamos razonamiento clínico y desarrollo profesional. Observamos cómo jóvenes adultos inteligentes se transforman en profesionales singulares que dominan enormes cantidades de conocimiento factual, así como los conocimientos para aplicarlo de manera juiciosa en la práctica de la medicina. Lograr una transición como esta exige un alto grado de concentración sostenida. Enseñamos el arte de la medicina porque el ser humano es más que el cuerpo humano . Sin embargo, cada vez veo más cómo la falta de atención socava a nuestros estudiantes, especialmente a los estudiantes universitarios con los que me encuentro.
El otro día, mientras esperaba el ascensor, las puertas se abrieron y una docena de estudiantes universitarios salieron corriendo. Todos miraban fijamente sus teléfonos, ajenos a mi presencia, aunque se empujaban y chocaban conmigo. El bloqueo de la pantalla en su atención había creado un punto ciego que me hacía invisible, una característica normal de la percepción llamada “ceguera por falta de atención” o “ceguera al cambio” (puedes ver un ejemplo alucinante de esto viendo la prueba del “gorila invisible” en YouTube). El fenómeno no es un defecto ni una ilusión óptica: el cerebro evolucionó para ignorar todo lo que se encuentra fuera de su foco inmediato, incluso cuando nos mira fijamente a la cara. Algunos tipos de daño cerebral suspenden a los pacientes en un estado perpetuo de ceguera por falta de atención, una variedad de agnosia (del griego que significa “no saber”). En términos comunes, la neurología llama a esto mirar pero no ver. Una proporción cada vez mayor de la población parece estar a la deriva por la vida, mirando sus pantallas pero sin ver lo que sucede a su alrededor.
Como la atención es como un foco de luz de bordes afilados, nunca podemos saber qué nos estamos perdiendo. Todo lo que está fuera de su perímetro se encuentra, por definición, dentro de nuestro punto ciego mental. Los estudiantes universitarios que se estrellaron sin pensar conmigo ya habían adquirido hábitos que estaban minando activamente su capacidad de aprender, pensar y recordar. Peor aún, su fijación con la pantalla los hacía ajenos a su discapacidad autoinfligida.
Un mito persistente dice que utilizamos sólo el 10 por ciento de nuestro cerebro. El 90 por ciento restante presumiblemente permanece inactivo para servir como capacidad de reserva. Si la premisa de la capacidad intelectual sin explotar fuera cierta, entonces las representaciones de personajes cinematográficos que van desde Johnny Mnemonic hasta Lucy y Limitless serían documentales en lugar de ciencia ficción emocionante.
Sin embargo, dos tercios de la población estadounidense y más de una cuarta parte de sus profesores de ciencias (¡sí!) creen equivocadamente en el mito del 10 por ciento, que tal vez subyace a las suposiciones de que uno puede realizar múltiples tareas y superar las distracciones con pura fuerza de voluntad. Peor aún, muchos profesores de ciencias estadounidenses creen que enriquecer el entorno de un niño (con videos de Baby Einstein o iPads sujetos a cunas, asientos de coche y orinal) mejora el intelecto, a pesar de la escasez de evidencia de que puedan hacer algo así. Por el contrario, hay abundantes pruebas que explican por qué la introducción de tecnología impide el desarrollo natural de un niño que de otro modo tendría cantidades normales de interacción entre personas. Es cierto que crecer aislado y privado de contacto humano atrofia drásticamente el desarrollo cerebral, pero no se sigue lógicamente que el uso de tecnología para complementar el entorno típico de un niño impulse el desarrollo cognitivo. Demasiada estimulación es tan perjudicial como no tener suficiente. Además, no es la estimulación en sí lo que es crucial, sino el contexto social en el que se produce.
Al vivir en un entorno social rico, nuestras redes neuronales se autocalibran, se autoensamblan y se adaptan a los estímulos, las experiencias y el contexto. Sin embargo, el consumo de energía supera a todos los demás factores. Cuando medimos cómo utiliza realmente el cerebro la energía, la proposición de que tenemos reservas sin explotar no se sostiene. No hay ninguna compuerta que se pueda abrir que proporcione más energía para realizar varias tareas a la vez o pensar ideas de nivel de genio. Para entender por qué es así, observemos el tamaño del cerebro y cómo se ajusta a la energía que debe consumir simplemente para mantenerse vivo. Durante los últimos 2,5 millones de años, el cerebro humano creció proporcionalmente mucho más rápido que el cuerpo humano. Nuestro sistema nervioso central es nueve veces más grande de lo esperado para un mamífero de nuestro peso. La corteza constituye el 80 por ciento del volumen del cerebro, y su prodigioso consumo de energía engendró comidas más calóricas y la invención de la cocina. Cocinar hace que las calorías de los alimentos se absorban más fácilmente y permite el consumo de proteínas de la carne y carbohidratos que de otro modo serían indigestos en sus formas crudas.
El cerebro de una rata o de un perro consume aproximadamente el 5 por ciento de las necesidades energéticas diarias totales del animal. El cerebro de un mono consume el 10 por ciento. Un cerebro humano adulto representa apenas el 2 por ciento de la masa corporal, pero consume el 20 por ciento de las calorías que ingerimos, mientras que el cerebro de un niño consume el 50 por ciento y el de un bebé el 60 por ciento . Estas cifras son mayores de lo que cabría esperar por sus tamaños relativos porque, en todos los vertebrados, el tamaño del cerebro se escala en proporción al tamaño del cuerpo. Los cerebros grandes son costosos en calorías para mantenerlos, y más aún para funcionar, y la discrepancia significa que la demanda de energía es el factor limitante sin importar el tamaño que alcance un cerebro en particular.
También es costoso en términos de consumo de energía generar picos eléctricos en una célula. Esto lo sabemos gracias a las investigaciones realizadas durante la administración de anestesia general. A medida que una persona pierde el conocimiento, su actividad cerebral se apaga gradualmente hasta alcanzar el «estado isoeléctrico», el punto en el que la mitad de las calorías quemadas simplemente se destinan a tareas de mantenimiento : el bombeo de iones de sodio y potasio a través de las membranas celulares para mantener la carga eléctrica en reposo que mantiene intacta la estructura física del cerebro. Este bombeo interminable significa que el cerebro debe ser un devorador de energía.
Incluso si sólo un pequeño porcentaje de neuronas en una región del cerebro se activaran simultáneamente, la carga energética que supone generar picos en todo el cerebro seguiría siendo insostenible. Aquí es donde entra en juego la eficiencia innata de la evolución. Permitir que sólo una pequeña fracción de células envíe señales en un momento dado (lo que se conoce como “codificación dispersa”) consume la menor cantidad de energía pero transporta la mayor cantidad de información porque una pequeña cantidad de señales tienen miles de posibles caminos por los que distribuirse por el cerebro.
Una desventaja importante del sistema de codificación dispersa es que cuesta mucho mantener nuestros 86 mil millones de neuronas. Si algunas neuronas nunca se activan (es decir, si las células no generan una corriente lo suficientemente fuerte como para viajar por el axón y cruzar la sinapsis hasta la neurona siguiente), entonces son superfluas y la evolución debería haberlas desechado hace mucho tiempo. Pero no lo hizo. Lo que la evolución descubrió mediante la selección natural fue la proporción óptima de células que un cerebro puede mantener activas en un instante determinado. Ese número depende de la relación entre el costo de mantenimiento de una neurona en reposo y el costo adicional de enviar una señal por su axón. Para lograr la máxima eficiencia, resulta que entre el 1 y el 16 por ciento de las células deberían estar activas en un momento dado . Usamos el 100 por ciento de nuestro cerebro, pero no todo al mismo tiempo.
Mantener este equilibrio forma parte de la homeostasis, que podemos considerar como un presupuesto cuya moneda está formada por todas las moléculas metabólicas que mantienen nuestras 86 mil millones de neuronas. Como sucede con un presupuesto basado en el dinero, se puede tener un déficit metabólico y que la cuenta corriente se ponga en números rojos. Cuando esto sucede, el cerebro recorta los procesos que son demasiado costosos, lo que da lugar a fatiga, aburrimiento, errores torpes y confusión mental. La ventana de máxima eficiencia mencionada anteriormente se refiere a una instantánea de la energía consumida por las neuronas que estén activas en ese momento. La necesidad de organizar los recursos de la manera más eficiente también explica por qué la mayoría de las operaciones cerebrales deben ser inconscientes.
Mantenernos alerta y conscientes, junto con cambiar de actividad, concentrarnos y mantener la atención, son las actividades que más energía consumen para nuestro cerebro. El alto costo energético de la actividad cortical es la razón por la que existe la atención selectiva (centrarse en una cosa a la vez) y por la que realizar varias tareas a la vez es una tarea inútil e inasequible.
Richard E. Cytowic , MD, MFA, un investigador pionero en sinestesia, es profesor de Neurología en la Universidad George Washington. Es autor de varios libros, entre ellos “ Synesesis: A Union of the Senses ”, “ The Man Who Tasted Shapes ”, “ The Neurological Side of Neuropsychology ”, “ Synesesis ” y “ Your Stone Age Brain in the Screen Age ”, de los cuales se extrajo este artículo.
https://thereader.mitpress.mit.edu/how-multitasking-drains-your-brain/