Las humanidades digitales y la fusión entre arte y ciencia

mangamillon

La ecología del conocimiento digital

Katherine Hayles, que acaba de publicar How We Think: Digital Media and Contemporary Technogenesis (Chicago: The University of Chicago Press, 2012) trabaja en las huellas de Marshall McLuhan y de Lev Manovich, pero también en el terreno balizado por los mucho menos conocidos Friedrich Kittler y Mark Hansen y forma parte del movimiento de las humanidades digitales que reconceptualiza a la era de la imprenta como un artefacto cultural que ya llegó a su ápice y está en reflujo. Para ella las tecnologías digitales se aprecian en un nivel estratificado de usos académicos. En el mas básico están: el e-mail, los sitios web de los departamentos universitarios, las búsquedas, los mensajes de texto, los archivos digitales, su diseminación, etc. Casi todos los que están en la academia participan de este uso básico.

Quienes hemos ido mas alla de esos usos primarios e instrumentales lo hemos hecho no solo de la mano de programas y plataformas sino de una epistemología subyacente que está en las antípodas de la cultura letrada con su privilegio por las ideas y las discusiones abstractas, los argumentos hipotéticos y los juegos del lenguaje centrado básicamente en el “como si” y en una visión mentalista e individualista del conocimiento.

Cuando ampliamos esa visión y postulamos una cognición extendida en la cual el pensamiento y la acción humanas se ven involucradas mas alla de la computadora aislada y dentro de una ecología de acciones e intervenciones, hasta la propia actividad académica se ve profundamente subvertida. Ello ocurre cuando los académicos empiezan a utilizar las tecnologías como punto de partida para desarrollar nuevos procesos de investigación.

Cambios paradigmáticos epocales

Llegados a este punto las formas de hacer humanidades y ciencias sociales se ven afectadas en todas sus fases: investigación, comunicación, enseñanza, mentorazgo, acreditación, evaluación de pares y, sobretodo, (re)-articulación de la academia con la sociedad. Se trata pues de otro nivel de involucramiento con el paradigma digital ligado al diseño e implementación de programas de investigación en medios digitales. En este plano intervienen en la puesta a punto cuestiones ligadas al diseño, la navegación, la gráfica, la animación y su integración con los conceptos. Lo significativo aquí es la fuerza argumentativa que tiene cada una de estas dimensiones con su apuesta crecientemente intensificadas hacia el trabajo colaborativo en las antípodas del autismo epistemológico propio de la investigación centrada en un tema, en una cabeza, en una tradición de pensamiento y en una carrera profesional individual.

Al trabajar colaborativamente el académico digital puede incluir fácilmente a estudiantes en los proyectos y la apropiación de la web forma parte constitutiva de cualquier emprendimiento. La clase ya no alcanza para contener el trabajo y se abre el camino a los labs como espacio de trabajo colaborativo y a los estudios en donde se produce e implementa. He aqui el tripode inexistente e invisible para la academia tradicional de que es pensar/hacer en epoca de web masiva. También queda claro que lo que las tecnología estan haciendo no es solo cambiar el modo de “hacer” humanidades y ciencias sociales sino al sistema educativo en su conjunto

Las Humanidades digitales están pasando de su etapa Lumiere y Melies a su etapa Griffith e Eisenstein.

Si bien las humanidades digitales (digital humanities) emergieron al menos como proyecto incipiente en los años 60, hubo al menos 3 o 4 intentos de reinvención en las décadas siguientes.
La segunda o tecera generación de Digital Humanities a la que Hayles bautizó como Comparative Media Studies emerge con fuerza a mediados y fines del 2000 y se traduce en obras de un enorme poder de evocación, metaforizador y multiplicador de intersecciones como son las de Matthew Kirschenbaum (2007) que en Mechanisms: New Media and the Forensic Imagination enfantizan los conceptos de materialiadad formal y forense.

En la misma longitud de onda están las obras de Loss Glazier como Digital Poetics: The Making Of E-Poetries (2008) sobre la poética experimental, la de John Cayley How It Is in Common Tongues sobre palabras y bits, y los de Stephanie Strickland como Zone Zero sobre trabajos que tienen versiones tanto impresas y digitales.

Existen mas y ricos ejemplos de la combinación de filosofía con contenidos en los New Media tal como la obra de Mark Hansen New Philosophy for New Media (2006). Contamos asimismo con la impresionante colección MIT series sobre platform studies, codirigida por Nick Montfort & Ian Bogost, que se ocupa de las affordances y los constraints en plataformas mediáticas tales como la Atari 5600 en Racing The Beam , la Nintendo Wii o la Commodore Amiga, todas obras en las que las técnicas del “close reading” o explicación de textos inaugurada hace ya casi un siglo por I.A. Richards y su estudiante William Empson se aplican al código a los video displays en vez de al texto.

Mostrando la amplitud de trabajos, líneas de investigación y tradiciones de trabajo post- y meta-textuales que desconocemos por entero, entre este grupo de pioneros se encuentran Wendy Hui Kyong Chun con Programmed Visions: Software and Memory and Mark Marino y su ensayo incluido en 10 PRINT CHR$(205.5+RND(1)); : GOTO 10

Esta variedad llamativa de obras critican ideológicamente la retórica, los formatos y los procedimientos propios del software, aluden a la retórica de los procedimientos (Ian Bogost), se centran en la analítica cultural (Lev Manovich & Jeremy Douglas), que usan el análisis estadístico y las estructuras de base de datos para analizar enormes conjuntos de materiales visuales impresos, como las tapas de la revista Time entre 1923 y 1989 (ver imagen mas arriba), o 1 millón de paginas de novelas gráficas de manga, mostrando que es posible analizar, criticar, comentar y remixar formatos que van mas alla del texto con la misma profundidad, valor y sofisticación que en el caso de los textos Image Processing and Software Epistemology

Enseñar lo que no se sabe todavía

Contrariamente a la seguridad académica textual estos antidisciplinarios diseñan cursos que ponen en cuestión la transparencia del texto y lo desnaturalizan haciéndolo resonar con otros medios. Es el caso de cursos como Literature+ de Alan Liu de UCSB en los cuales los estudiantes pueden elegir una historia o poema y lo modelizan, simulan, mapean, visualizan, codifican, lo someten a análisis de textos, lo samplean, mashupean, generan un storyboard o blog, lo rediseñan como un juego, generan una versión en machinima, o lo convierten en una base de datos, un hipertexto, o un mundo virtual.

En la misma dirección va el curso que ofrecen Jessica Brantley, una medievalista, y Jessica Pressman, una especialista en literatura contemporánea, ambas de Yale University, comparando la transición del manuscrito a la imprenta con el pasaje de la imprenta a lo digital, y donde uno de los pilares de; trabajo es el espacio del laboratorio y del diseño de experiencias de lectoescritura.

En particular en la Universidad de Duke autores como Cathy Davidson (autora de Now You See It: How Technology and Brain Science Will Transform Schools and Business for the 21st Century, que fue una guía de la cursada que acaba de finalizar en datos sobre Narrativas Transmediáticas), Nicholas Gessler, Mark Hansen, Timothy Lenoir, y Victoria Szabo, en la tradición del design thinking, pero sólidamente ancladaoa en la economía textual articulan y trascienden el monolinguismo textual y se aventuran en nuevos formatos y soportes.

Como muchos de los docentes que promueven estas incursiones provienen de las humanidades y las letras, llama la atención como pudieron escapar al cepo de las periodizaciones (e.g., prosa del siglo XVIII), las nacionalidades (Inglesa, Norteamericana, Anglófona, etc.), y de los géneros (ficción, prosa, drama), todos los cuales están centrados en los contenidos y no enlos problemas. Por su orientación las digital humanities apuntan a la dimensión del hacer sumando al desafio del diseño de buenos lectores y escritores, el uso de software, de herramientas estadísticas, de armado de base de datos y de otras herramientas y enfoques digitales.

Se trata pues de un intento de síntesis entre lo analógico y lo digital, entre la imprenta y el código, entre el análisis y el diseño, entre la lectura profunda y la hipertextual y la generada por la lectura automatizada. El cómo pensamos (con énfasis en la pluralidad y en las posiblidades abiertas por la galaxia digital) es el hilo conductor de este conjunto de enfoques y propuestas. Hacia alla vamos.

Tecnogénesis y coevolución

La propuesta de Katherine Hayles no se agota con la presunción de que pensamos distinto porque los medios con los que interactuamos son tan diferentes de los que predominaron durante los 500 años de hegemonía de la imprenta. Mas allá de este semitruismo Hayles mcluhaniamente plantea que estas diferencias son atribuibles a una tecnogénesis, dado que los humanos y la técnica hemos coevolucionado desde el fondo de la historia tal como se comprueba con la emergencia del bipedalismo junto con a manufactura de herramientas y al transporte en una causalidad recíproca continua.

A ello debemos sumarle el efecto Baldwin según el cual cada vez que ocurre una mutación genética su dispersión a través de la población se acelera cuando la especie reingenieriza su entorno de modo tal que la mutación es mas adaptativa. Los cambios epigenéticos iniciados y trasmitidos a través del entorno, en vez de a través del código genético, tienen una fuerza notable y a su vez pueden ser acelerados por cambios en el entorno que los hacen mas adaptativos, lo que lleva recursivamente a producir mas cambios epigenéticos que al producirse en forma mucho mas acelerada que los biológicos, amplifican a su vez los procesos de transformación en curso.

Entre esos cambios epigenéticos uno que sobresale en términos de tecnologías cognitivas son las mutaciones en la capacidad de lectura (algo que que como bien explícitó Antonio Dehanae en Reading in the brain) al no tener inscripción genética permite cambios significativos mas alla de cualquier mutación), que después de haber estado centradas durante centenares de años (y muy particularmente a nivel crecientemente masivo desde el advenimiento de la imprenta) en la lectura exegética, interpretativa y/o hermeneútica, comenzó en las últimas décadas a convertirse en nuevas modalidades y formatos y muy particularmente en algo que desde los años 1990 (con el advenimiento de la web) denominamos hiperlectura.

Hiperlecturas

La hiperlectura que incluye el escaneado, el “picoteo”, la fragmentación y la yuxtaposición de textos, es una respuesta adaptativa a la proliferación de un entorno intensivo en información, que busca dirigir la atención a lo ipso facto relevante, de modo tal que lo leído es tan solo una parte minúscula de lo disponible en la pantalla.

La hiperlectura viene acompañada de la hiperatención, una modalidad cognitiva con baja tolerancia hacia el aburrimiento, que presta atención en paralelo a distintos flujos informacionales y prefiere un alto nivel de estimulación. La lectura profunda (o cercana) va de consuno con una atención profunda, con el modo de conocimiento típico de las humanidades con su énfasis en una fuente de información única, que focaliza la atención en un solo objeto cultural durante largo tiempo, y que tiene una tolerancia infinita para con el aburrimiento.

Es hora de que admitamos la coexistencia de fortalezas y limitantes en cada modo cognitivo, la existencia de pedagogías diferenciales, (algo que ni la escuela ni mucho menos la universidad tienden a aceptar por ahora), y la obligatoriedad de tender puentes entre estas estrategias disímiles y muchas veces contradictorias

Dado que la investigación y la enseñanza en las humanidades suponen un problema (o desafío) al diseño (una vez que nos liberamos de una epistemología de los contenidos y pasamos a una epistemología de los problemas), habrá que prestar especial a las dinámicas de la atención como un factor limitador para todo proyecto imaginable en un mundo hipercargado de datos e información .

Máquinas inteligentes de lectoescritura

Si a la hiperlectura le sumamos la capacidad diseñada de algunas máquinas que pueden leer por si mismas, habrá que reconceptualizar nuestra idea de los objetos a los que dejaremos de ver como entidades estáticas y empezaremos a tratar como ensamblajes mutantes. Los objetos devienen asi individuos técnicos embebidos en redes de relaciones sociales, económicas, y tecnológicas, algunas de las cuales son humanas y otras no (tal como vienen balizando en las ultimas décadas este terreno “de lo mas que humano” Gilbert Simondon, Adrian Mackenzie, Bruno Latour y Matthew Fuller.

Tanto la materialidad como los propios objetos no son datos a priori sino procesos dinámicos que cambian a medida que se altera el punto de vista. Como lo sostuvo hace medio siglo atrás Henri Lefebvre las prácticas sociales producen espacios sociales. Mientras, los proyectos saltaron de las bases de datos relacionales (los elementos estaban coordinados por palabras claves) a bases de datos orientadas por objetos en las cuales las clases poseen rasgos heredables y potencial de agregación sorprendente y desentumecedor.

Si hay algo ajeno a la investigación humanística es el trabajo basado en la práctica prototípica de la ciencia. Hacer algo (gestar un producto que conlleva muchísimas horas de trabajo manual) tiene numerosas implicancias que van mas alla de hacer cosas con palabras. La práctica como habilidad encarnada está sumamente vinculada con la conceptualización (algo que George Lakoff desarrolló en sumo detalle en obras como Women, Fire and dangerous things (1990) y Philosophy in the flesh: the embodied mind and its challenge to western thought (1999) con Mark Johnson.)

La forma como está cambiando la investigación, la inclusión del programación como una práctica lingüística central y los proyectos web de alto alcance de las humanidades, están mostrando como el comercio masivo con las tecnologías digitales está afectando de cabo a rabo los presupuestos y prejuicios de los académicos, incluyendo su definición profesional y su visión del futuro de su profesión.

Será cuestión de entrar en mas detalle en los orígenes de las humanidades digitales, en la identificación de sus centros de trabajo actuales mas destacados, en la mutación de la tecnoescritura digital hacia nuevas formas de arte, participación e intervención y en el relevamiento de las obras multidimensionales, si queremos repensar/rediseñar en qué consiste la investigacion en la era de la digitalizacion masiva. Y cuales pueden ser sus implicancias pedagógicas y su relevancia para las nueva sgeneracioens de futuros estudiantes universitarios.

Referencias

Berry, David Digital Humanities: First, Second and Third Wave

Etzioni, Oren. 2007. Machine Reading: Papers from the AAAI Spring Symposium. Technical report SS0-07-06.

Liu, Alan. 2004. The Laws of Cool: Knowledge Work and the Culture of Information. Chicago: University of Chicago Press.

Manovich Lev the meaning of statistics and digital humanities

Manovich Lev Image Processing and Software Epistemology

Pressner, Todd Digital Humanities 2.0: A Report on Knowledge

The Digital Humanities Manifesto 2.0

Unsworth, John (2002) What Is Humanities Ccomputing and what is not?

5 Responses to “Las humanidades digitales y la fusión entre arte y ciencia”

Deja un comentario

 

Últimos artículos

Big Brain Project

Todos somos inventores*

Abrir la caja negra