
Полная версия:
Umberto Roncoroni La forma emergente
- + Увеличить шрифт
- - Уменьшить шрифт
Benjamin y la reproducibilidad técnica
El problema de la reproducibilidad técnica de las obras de arte ha sido planteado en toda su magnitud por Walter Benjamin. Quizás hoy algunos momentos de su discurso puedan resultar contradictorios, pero hay un punto clave, que Benjamin llama “aura”, el cual mantiene inalterada su fuerza cuestionadora. El concepto de aura, en efecto, propone nuevos problemas a la comprensión del arte cuando se examina en el contexto de la tecnología digital, y por eso me parece importante resumir aquí algunos de sus aspectos.
Según Benjamin,25 el significado de la obra de arte se fundamenta en su unicidad, es decir, en su hic et nunc; este concepto se refiere, en primer lugar, a la naturaleza única e irrepetible del acto del artista que piensa y produce la obra; en segundo lugar, a las condiciones espacio-temporales, culturales y sociales para las cuales esta ha sido creada y destinada. En este sentido, la verdadera obra de arte debe ser “auténtica”, en cuanto auténtico significa precisamente la conservación de su unicidad. Y la obra de arte, en tanto auténtica, tiene también un contenido verdadero, que es validado por la relación con la historia de su contexto. La autenticidad, para Benjamin, se fundamenta en la tradición del uso, por lo tanto el arte encuentra sus raíces en su función originaria religiosa y cultual. Históricamente, el cambio de uso empezó en el Renacimiento, cuando las obras de arte tomaron valor estético (como algo que debe ser visto), dejando el aspecto cultual en segundo plano. El hic et nunc, la autenticidad y el recuerdo del uso religioso conforman el aura de la obra de arte.
Ahora bien, la reproducibilidad técnica (fotografía e imprenta) provoca la deconstrucción del aura, por medio de la eliminación del hic et nunc y de la autenticidad. Primero, porque la obra de arte se produce mecánicamente, destruyendo de esta manera la relación unívoca entre la habilidad del artista y la calidad de la obra; luego, porque la obra también se puede reproducir mecánicamente, fuera del alcance del artista que la ha creado, perdiendo de esta manera su valor como original; finalmente, mediante la fotografía, una obra de arte (como la catedral, según el ejemplo del mismo Benjamin) puede abandonar su ubicación y viajar, como imagen, en una revista o en un libro, directamente a los ojos del espectador. Este aspecto cuestiona ulteriormente el concepto de la autenticidad en cuanto testificación histórica, porque la reproducción ha perdido el enlace de la obra de arte con su contexto originario.
Hay otro factor que Benjamin señala, esencial con relación al medio digital, que es la transformación que se crea entre el objeto y su imagen creada con la técnica fotográfica. Este cambio nace por las diferentes capacidades de la óptica natural y de la óptica de los objetivos fotográficos, que pueden captar detalles y aspectos de la obra de arte que son imperceptibles por el ojo humano. En este sentido, la reproducción de cualquier objeto en una fotografía es algo diferente del objeto percibido por el hombre en su hic et nunc natural.26
Todos los aspectos de la problemática tecnológica del aura están desarrollados por Benjamin con relación al concepto de público en cuanto masa, en el cual es implícito el deseo de eliminar cualquier diferenciación entre lo que es igual y uniforme y lo que es único y original; la reproducibilidad técnica satisface este deseo, haciendo que lo único se vuelva igual en sus copias. Esto es importante, porque la eliminación de la unicidad elimina también el aura del artista, ya que queda implícitamente cuestionada la mitología romántica del genio creativo como intérprete de lo original y eterno.
Para Benjamin, que habla desde la perspectiva del materialismo histórico, este proceso es benéfico, porque tanto el aura como el genio son conceptos que pueden ser utilizados en sentido totalitario. Benjamin no podía imaginarse que las cosas se manifestarían hoy en una forma muy diferente, y que los valores del socialismo no son aquellos que han sustituido los valores cultuales del aura. Pero no es este el lugar para discutir estos problemas; la cuestión que me interesa es que tanto el aura como el genio no se dejan eliminar tan fácilmente, y no solo por razones políticas, sino porque estas instancias permanecen como exigencias primarias27 de la sociedad y como estructuras de la tecnología digital.
El aura y lo digital
El aura y el genio son problemas centrales para el debate acerca del arte, de la tecnología y de la comunicación, y han influido en el situacionismo de Debord, Baudrillard y otros autores. Pero con la tecnología digital aparecen factores íntegralmente nuevos, que están vinculados con la tecnología y con el contexto cultural posmoderno en el cual lo digital se desarrolla. Las diferencias entre las imágenes reproducidas por la técnica analógica y la síntesis digital abarcan todos los aspectos del aura: el concepto de original y el hic et nunc; el proceso de la reproducción de la realidad en la imagen; la creatividad y la autoría (el genio del artista).
El proceso de producción de la imagen de síntesis se puede llevar a cabo de muchas maneras; la fotografía, la pintura, la ilustración o el diseño digital utilizan diferentes herramientas digitales, lo que obliga a estudiar el aura y el genio desde más de un punto de vista. Por ejemplo, el valor agregado de la fotografía analógica consiste en el proceso óptico y mecánico que genera la imagen; de esta forma, la realidad colabora con el ojo humano en la producción. Según Benjamin este mecanismo cuestiona el concepto de creatividad y de genio ligado a la producción manual de la pintura o del dibujo; pero con el método digital, gracias a la inmaterialidad que lo caracteriza, estos dos planos se confunden y el proceso fotográfico y el del dibujo se pueden sobreponer y mezclar. Así, por medio de los programas de fotorretoque podemos crear y manipular la fotografía como si fuera una pintura, y viceversa.
Con respecto al concepto de original, hay una diferencia esencial entre la fotografía (y por ende la cinematografía y la televisión) y la tecnología digital, que se debe a la naturaleza de la imagen sintética. Sintético significa que el contenido de la imagen digital no está vinculado a los fenómenos reales mediados por nuestra percepción (en este sentido, es cierto que la óptica fotográfica establece también una distancia con el ojo humano, pero la referencia a lo real es obligatoria). La imagen sintética, en efecto, es generada por simulación matemática, que modela en ecuaciones y algoritmos la complejidad formal y estructural del objeto real. La síntesis numérica puede entonces reproducir la realidad sin depender de esta y a la realidad se refiere solamente a través de sus procesos generativos, es decir, reproduciendo no tanto los efectos ópticos visibles sino los mismos mecanismos naturales que los producen. Aquí debe ser planteado nuevamente lo que diferencia al original de la copia: la imagen de síntesis no es la copia o imitación de un objeto real, sino que ella misma es una especie de original; en otras palabras, la imagen sintética no es una imagen sino un ente real, ambiguo en su naturaleza ontológica. En conclusión, el concepto de genio y de creatividad, cuestionado por la fotografía, el cine y la televisión, parece regresar inesperadamente por la ventana de lo digital.
Las dificultades de lo digital
La naturaleza abstracta del medio digital es lo que dificulta la comprensión de su real alcance. Esta dificultad consiste, más precisamente, en la imposibilidad de entender una dimensión numérica con los parámetros y criterios de la materia. Por siglos hemos interpretado la naturaleza y la tecnología bajo un punto de vista mecánico o por medio de la física y de la química: las máquinas son extensiones del cuerpo humano, los medios de comunicación son una extensión de la vista y del oído; la cámara fotográfica es, en este sentido, un ojo mecanizado, más rápido y preciso. Sin embargo, lo digital parece ser una extensión del cerebro, pues se habla de redes, de conexiones, de información. En este sentido, lo que define los medios masivos según McLuhan28 es radicalmente diferente del concepto de lo masivo de Benjamin. McLuhan ha subrayado justamente que masivo no se refiere a una cantidad de personas unificadas por ciertas características sociales (como el proletariado), sino el hecho de que estas personas son acomunadas por la simultaneidad de la comunicación en el tiempo real de la información.
Lo cual es cierto, pero la metáfora del cerebro humano, que estaba de moda en la década de 1960, se demuestra hoy inadecuada para representar la naturaleza digital. Las tecnologías hardware y software, así como la elaboración paralela y la inteligencia artificial, están transformando las redes informáticas y las computadoras en entidades radicalmente diferentes del cerebro humano y serán capaces de desarrollarse en forma independiente de nuestros parámetros de pensamiento. Por las computadoras, en suma, el hombre comienza a ser expulsado del centro de la tecnología, que se desarrollará sin referencias al cuerpo humano o a su cerebro, sino buscando y encontrando paulatinamente su propia naturaleza.29
La ciencia posmoderna y el arte
Las redes y las autopistas de la información que distribuyen los datos en tiempo real, la simulación y el lenguaje matemático propios de la tecnología digital apelan a una nueva y más estrecha relación con la ciencia, que repercute en las humanidades y, naturalmente, en las artes y en la educación. Poco importa si esta inmanencia científica es explícita o implícita, es decir, si la percibimos directamente; querámoslo o no, tenemos que dialogar con ella. Por otro lado, la ciencia se relaciona con las humanidades no solo por medio de la tecnología. Hay algunas investigaciones científicas, en efecto, que han dado una dirección inesperada a muchos aspectos metodológicos y epistemológicos y que han creado campos de estudio totalmente nuevos, cuyos resultados, pertinentes en sentido interdisciplinario, obligan a revisar los hábitos mentales y las creencias que subyacen en nuestras relaciones con las ciencias en general.
Estas novedades derivan de la necesidad de enfrentar y comprender la complejidad de los procesos contemporáneos, sociales, económicos y naturales; por ejemplo el clima, la ecología, la globalización. En estos casos, las herramientas de la ciencia clásica cartesiana y positivista, que interpreta la realidad bajo una perspectiva mecanicista y reduccionista, se encuentran en dificultades.
Uno de los aspectos de la posmodernidad, por lo tanto, es este cuestionamiento de la ciencia, que se apoya en algunas teorías (usadas más o menos a propósito, como decían Sokal y Brickmont, y que no debemos tomar como verdades absolutas) que se suelen agrupar bajo el rubro de la complejidad. Esta se desarrolla en un contexto de la filosofía de la ciencia que es el relativismo epistemológico y se compone de algunas ramas de la matemática y de la física, así como de la teoría general de los sistemas, el caos y los sistemas dinámicos, la vida artificial y la autopoiesis. En realidad, más que cuestionar la ciencia, como pretende cierta filosofía posmoderna, estas teorías abren nuevos horizontes que están influyendo en la filosofía y el arte; es sobre todo con respecto a este último punto de vista que intentaré presentar algunos de los interrogantes que proponen.
Ciencia y filosofía
1. El relativismo epistemológico.- Los primeros años del siglo XX trajeron cambios científicos profundos, que originaron en la filosofía de la ciencia diferentes teorías sobre su validez metodológica y epistemológica. En la base de estos cuestionamientos está la idea de que la ciencia no es tan estable y segura como se suele pensar. El paso inicial lo dio la teoría de las “conjeturas y confutaciones” de Popper, que, como comenta Scruton: “... hizo el extraordinario descubrimiento de que el concepto central del método científico no es la verificación, sino la falsificación. No podemos verificar una teoría científica de modo conclusivo pero podemos confutarla de modo conclusivo”.30
En suma, lo que diferencia a la ciencia de las seudociencias no es tanto la posibilidad de verificar cualquier teoría o hipótesis, sino de poder modificarlas y cuestionarlas. Un segundo ataque a la estabilidad de la ciencia proviene de la teoría de las “revoluciones científicas” de Thomas Kuhn.31 De acuerdo con esta teoría, el desarrollo histórico de la ciencia se presenta como paradigmas, que forman la base epistemológica y metodológica comúnmente aceptada para el quehacer de la ciencia en un contexto histórico y social dado. Una revolución científica es un cambio de paradigma que introduce aspectos que la ciencia normal o había suprimido o no había percibido. Para Kuhn, el avance científico tiene que luchar no tanto con la dificultad teórica que presentan los nuevos paradigmas, sino con la hostilidad de los intereses sociales, económicos, religiosos y políticos preexistentes.
Pero el más importante y radical exponente de la crítica científica es Paul Feyerabend y su controvertida teoría de la “anarquía epistemológica”.32 Feyerabend, que ganó mucha fama con su anything goes, opina que la ciencia es irracional, porque no hay pruebas de racionalidad en la historia y en la práctica de la ciencia contemporánea. Además, es mejor así, porque si la ciencia fuera realmente racional, las consecuencias serían terribles tanto para la ciencia misma como para el individuo y la sociedad.
De todos modos, estas cuestiones epistemológicas, que, según Hacking, combinan las dudas fundamentales sobre la razón con temas políticos y metafísicos, en el fondo apuntan a cuestionar el poder absoluto de la ciencia y la posibilidad de explicar racional y exhaustivamente la naturaleza y el hombre.33 Entonces, aquí no se trata tanto de denegar el valor cognoscitivo de la ciencia, sino de poner en cuestión el lugar destacado que ocupa en el conjunto del saber humano y, por ende, en manifestar sus discordancias con los demás aspectos de la cultura y de la sociedad. Esta interpretación débil de la ciencia se apoya en dos teorías de la matemática y de la física, que ponen en entredicho, desde el interior de la ciencia misma, la exactitud del pensamiento científico y racional.
2. El teorema de indecidibilidad de Gödel.-34 Este teorema dice, en palabras simples, que la coherencia de un sistema axiomático no puede ser demostrada; para cada sistema formal es posible, por medio de sus mismos axiomas, llegar a proposiciones contradictorias. Este principio no es totalmente nuevo, siendo ya prefigurado en Kant, como reconocía el mismo Gödel. Kant decía que la razón, si quiere ser consistente, no puede ser completa; Gödel descubrió que el mismo razonamiento se puede aplicar a los sistemas matemáticos. Entonces, la verdad de cualquier sistema se debería buscar fuera del sistema mismo, con otro sistema; pero este será también incompleto, y así hasta el infinito. El resultado de Gödel demuestra, de ahí su importancia filosófica, epistemológica y computacional, que no obstante todos los esfuerzos posibles, el hombre no puede producir sistemas de representación o modelos de la realidad perfectos.35
3. La física cuántica.- Esta teoría es la que ha desencadenado los mayores cuestionamientos en los ámbitos científico, filosófico y epistemológico. Podemos resumir su núcleo problemático a través del principio de indeterminación de Heisenberg, el cual dice que no se puede determinar unívoca y precisamente la posición y la cantidad de movimiento de las partículas y que, generalizando, es imposible observar con exactitud todas las cosas del universo. La física cuántica pone atención sobre dos puntos fundamentales: el observador modifica el comportamiento del objeto observado y la investigación está restringida a un determinado aspecto del fenómeno. De esta forma ingresan a la ciencia conceptos contradictorios con sus fundamentos tradicionales: el indeterminismo y la probabilidad. Así pues, se pone en discusión el concepto mismo de materia, y el problema ontológico entra en la ciencia. Esta naturaleza ambigua e inestable ha acercado de alguna forma la ciencia a la filosofía, proceso que constituye el tema central de la reflexión de Fritzjof Capra, un físico interesado en la filosofía oriental,36 y la propia historia intelectual de Niels Bohr termina con un acercamiento al misticismo.
La teoría de los sistemas
Como conclusión de lo que hemos presentado, tenemos un contexto científico y filosófico, que pone en primer plano el problema de la totalidad y cómo el ser humano puede comprenderla. Por totalidad se entiende asumir la complejidad inherente a la realidad, tanto en los dominios naturales como en los sociales y culturales del ser humano. Esta complejidad no se reduce al punto de vista de la ciencia clásica cartesiana, secuencial y mecanicista, porque esta se encuentra en la obligación de interpretar la realidad descomponiendo, separando y aislando sus procesos y, de esta forma, no logra abarcar aspectos como la historia y sus fines, las interacciones dinámicas entre los fenómenos y la autoorganización. La naturaleza, el hombre y los organismos son considerados, bajo este punto de vista, como máquinas rígidamente determinadas, perdiendo así todos los aspectos ramificados y diferenciados que caracterizan a los organismos vivos en su complejidad ontológica y funcional.
Así, tanto los aspectos de la biología o de la economía tradicional como algunas recientes disciplinas científicas, entre ellas la ecología, la meteorología o las ciencias sociales, se encuentran en la búsqueda de nuevas herramientas epistemológicas y metodológicas. A este contexto incierto se deben agregar los efectos del desarrollo tecnológico, representado por la sociedad de la información, las computadoras y las redes, que están provocando el paso de un enfoque mecánico de los procesos naturales y sociales a un enfoque de control, que se refiere a la integración de las tecnologías y al conocimiento de las interacciones generados en dichos complejos contextos.
La aproximación sistémica pretende dar razón de la totalidad y de la complejidad de la naturaleza, de los organismos vivientes y de los procesos sociales. Esta perspectiva comienza a desarrollarse en la década de 1950, precisamente con la cibernética de Wiener, la teoría de la información de Shannon y Weaver, la teoría de los juegos de von Neumann y Morgenstern37 y, finalmente, la teoría general de los sistemas de Bertalanffy.38 Vale la pena repasar esta última teoría, en cuanto presenta claramente los términos generales de la problemática sistémica.
• Un “sistema” es un conjunto integrado de elementos que interactúan entre sí y que son determinados por ciertos procesos globales que generan la complejidad de su comportamiento. Este se entiende por medio de leyes generales lógico-matemáticas, que observan el sistema no tanto en el nivel de sus elementos, sino en las relaciones que se crean entre ellos y el ambiente externo. Cualquier sistema se caracteriza por dichos mecanismos de regulación interna, por ser dinámico y por buscar condiciones de equilibrio entre sus elementos. En este sentido, existen sistemas cerrados y sistemas abiertos, con diferencias notables entre ellos.
• Se denomina sistema cerrado a aquel que no intercambia informaciones con el ambiente externo, y que por lo tanto se autorregula por retroalimentación39 y por homeostasis. Esta clase de sistemas tiende naturalmente a la entropía, que es el desorden que caracteriza el equilibrio de los procesos físicos y químicos. Los sistemas cerrados se caracterizan por depender de sus condiciones iniciales: al cambiar estas, necesariamente cambia el estado final del sistema. Son esencialmente máquinas determinadas inequívocamente por sus condiciones iniciales y modalidades de retroalimentación. Ejemplos de sistema cerrado son la cibernética y la ingeniería de sistemas.
• Un sistema abierto, por el contrario, interactúa e intercambia informaciones y materia con el ambiente externo. Mediante estos intercambios, un sistema abierto puede regenerar sus componentes deteriorados y preservar su orden interno. Desde luego, estos sistemas se caracterizan por la entropía negativa, es decir por tener como fin un orden creciente, independiente de las condiciones iniciales del sistema y de eventuales accidentes externos. El sistema abierto puede adaptarse al ambiente mediante una modalidad especial de interacción entre sus elementos, que Bertalanffy llama equifinalidad. Esta es la misteriosa capacidad de tener objetivos y estrategias comunes: un estado uniforme y un equilibrio activo que permite al sistema sobrevivir y reproducirse. Este modelo presenta, así, una serie de ventajas que posibilita acercarse a la complejidad de los seres vivientes.
Caos y sistemas dinámicos
Estas teorías, surgidas algunos años después de la teoría general de los sistemas, estudian una clase especial de sistemas cerrados que presentan analogías y un cierto grado de isomorfismo con los sistemas abiertos (los organismos vivos). Dichos sistemas presentan, en primer lugar, características de entropía negativa (pueden alcanzar un estadio ordenado); en segundo lugar, presentan una cierta independencia de sus condiciones iniciales; un ejemplo de esta nueva clase de sistemas son los autómatas celulares. La teoría del caos, por otro lado, se ocupa de la entropía de los sistemas determinísticos, de manera especial de la impredecibilidad del estado final de algunos sistemas que presentan una particular sensibilidad a pequeñas variaciones en su estado inicial. En este sentido, la teoría del caos cuestiona el aspecto mecanicista y determinado de esta clase de sistemas. Hablaré de estas teorías más detalladamente —en tanto tienen una aplicación directa en la generación de imágenes sintéticas y en el arte digital— en uno de los próximos capítulos.
La perspectiva sistémica, la ciencia y el arte
La teoría de los sistemas abiertos, la problemática epistemológica y filosófica de la ciencia, los contactos entre ciencia y arte en los procesos digitales se reflejan en las cuestiones estéticas en diferentes formas y metodologías, lo que plantea una serie de nuevas dificultades.
En primer lugar, a pesar de las hipótesis posmodernas que parecen abrir la ciencia al arte y la filosofía, hay un hecho que no se puede ignorar: la época en la cual arte, ciencia y filosofía eran un conjunto integrado de saberes pertenece definitivamente al pasado. Además del Iluminismo, que originó la separación entre las ciencias y las humanidades, es el desarrollo cada vez más especializado de los conocimientos lo que impide hoy una real unión entre ciencia y arte. La interdisciplinariedad, en el sentido del dominio efectivo de especializaciones diferentes, es técnicamente imposible, esta pertenece entonces a un horizonte ideal más que a una práctica efectiva. Sin embargo, esto no implica disminuir la importancia de las cuestiones que hemos examinado, pero también es cierto que se deben colocar en una dimensión adecuada. Trataré de presentarla de manera esquemática:
1. Una primera posibilidad la encontramos en la aproximación sistémica a la complejidad, que abre la ciencia al saber humanístico y al arte. Al respecto, Bertalanffy dice:
Las ventajas de los modelos matemáticos —no ambigüedad, posibilidad de deducción estricta, verificabilidad por datos observados— son bien conocidas. No quiere esto decir que modelos formulados en lenguaje ordinario hayan de ser desdeñados o rechazados. (...) Teorías enormemente influyentes como el psicoanálisis, no fueron matemáticas, o, como la teoría de la selección, su influencia llegó mucho más lejos que las construcciones matemáticas que no surgieron hasta después y cubren sólo aspectos parciales y una fracción pequeña de los datos empíricos.40