Archivos para el mes de: julio, 2008

El otro día estuve viendo una buena colección de cosas de Basquiat en galleryofart. Siempre me han gustado sus pinturas, pero aquí tenían también una buena colección de dibujos, que no conocía tanto. Me bajé un montón, aquí pongo unos cuantos.

Anuncios

Estos días me he tropezado varias veces con el tema de los comportamientos colectivos, el tema que trata Laughlin en física como estados colectivos de la materia, pero la sorpresa ha sido encontrar algo parecido en un estudio sobre el comportamiento de las redes, y en concreto sobre comportamientos colectivos en Internet. Me ha sorprendido encontrar el mismo tema, pero en lugar de tener como protagonistas a los electrones ver que los protagonistas también pueden ser los internautas (o sea, yo). De la física a la sociología, o más sencillo, puro asunto de redes. Voy por partes.

Hace poco Kanijo puso un artículo que trataba sobre nuevas investigaciones en el tema de la superconductividad a temperatura ambiente, la cancha de Laughlin y un objetivo al que se le está dando mucha caña por las posibilidades que tiene. Bueno, pues el artículo acababa con este párrafo (en relación a la superconductividad y el magnetismo):

“¿Estas formas de orden compiten, con el magnetismo apareciendo en las regiones de vórtices donde se acaba la superconductividad, como sugieren? ¿O se complementan entre sí mediante algún mecanismo más intrincado? Una posibilidad que sugieren para la coexistencia de dos fenómenos físicos muy distintos es que los núcleos de vórtices no superconductores pueden comportarse como un grupo, exhibiendo colectivamente magnetismo mientras que el resto del material superconduce”.

Me llamó la atención la referencia al comportamiento de grupo para explicar el magnetismo (donde creo que está generalmente aceptado), aunque para Laughlin la superconductividad también muestra este comportamiento. Pero bueno, luego he leido la introducción a un libro muy interesante, “The Structure and Dynamics of Networks” (el sample está ahí on line) de Mark Newman, Albert-László Barabási y Duncan J. Watts (éste va a ser uno de esos posts que le gustan a rez, donde voy mezclando cosas). El libro muestra ciertas pautas de comportamiento en cualquier tipo de redes, como la formación de nodos muy interconectados que actúan de attractors y puntos de apoyo de la estructura de la red. Es interesante lo que dicen sobre las relaciones sociales en red:

“Many networks are the product of dynamical processes that add or remove vertices or edges. For instance, a social network of friendships changes as individuals make and break ties with others. An individual with many acquaintances might, by virtue of being better connected or better known, be more likely to make new friends than someone else who is less well connected. Or individuals seeking friends might be more likely to meet people with whom they share a common acquaintance. The ties people make affect the form of the network, and the form of the network affects the ties people make. Social network structure therefore evolves in a historically dependent manner, in which the role of the participants and the patterns of behavior they follow cannot be ignored”.

Pero lo que me ha resultado más interesante es la explicación de como habían llegado a sus conclusiones:

“Because of the effort involved in compiling them, social network datasets rarely document populations of more than a hundred people and almost never more than a thousand. And although other kinds of (nonsocial) networks have not suffered from the same difficulties, empirical examples prior to the last decade have been few—probably because other network-oriented disciplines have lacked the empirical focus of sociology. The lack of high quality, large-scale network data has, in turn, delayed the development of the kind of statistical models with which much of the work in this book is concerned. Such models, as we will see, can be very successful and informative when applied to large networks, but tend to break down, or simply don’t address the right questions, when applied to small ones”.

Vale, sus resultados dependen del tamaño de la muestra, y esto (que en estadística es de cajón) se me empieza a iluminar por varios lados cuando lo superpongo con lo que dice Laughlin sobre la naturaleza organizativa de las fases de la materia:

“Cuando uno sabe sabe donde buscar, es fácil demostrar la naturaleza organizativa de las fases de la materia distintas de la sólida. Un estado colectivo de la materia se detecta sin ningún tipo de ambiguedad en comportamientos que son exactos en muestras grandes, pero inexactos o inexistentes en muestras pequeñas. Como el comportamiento es exacto, no cambia de forma continua al variar condiciones externas como la presión o la temperatura, pero si cambia abruptamente durante el pasaje de un estado a otro”.

Pues eso, diversos comportamientos individuales, sea de electrones o de internautas, muestran regularidades y estados de llegada cuando se puede observar un conjunto suficientemente grande. Fenómenos emergentes desde las fases de materia hasta la arquitectura de redes. Curioso, ¿no?

Acabo de leer en menéame que hoy se celebraba, por noveno año consecutivo, el día del administrador de sistemas (último viernes de julio). No es que sea muy fan de los innumerables días de… que acaban trufando el año de celebraciones al final intrascendentes, pero como trabajo en el tema la verdad es que me ha hecho gracia. Tiene gracia, sobre todo, porque el administrador de sistemas, el que se encarga de la gestión y el mantenimiento de la red local de cualquier organización o empresa, es un trabajo muchas veces invisible, y cuando menos se le ve es cuando mejor hace su trabajo, cuando no hay problemas con la red y todos los usuarios pueden trabajar en su puesto de trabajo con la misma normalidad con que lo harían en su casa.

Pero la cuestión está (y es un punto que muchos usuarios ignoran completamente y origen de un montón de problemas) en que es bastante más complicado administrar una red de 50, 100 o 200 ordenadores (o +) que utilizar el pc de casa, y que determinadas cosas que se pueden hacer en el pc de casa con un riesgo limitado pueden suponer un problema serio en una red. Este riesgo se puede reducir con una política restrictiva de permisos, pero resulta una alternativa complicada cuando los usos de Internet abarcan y mezclan cada vez más la vida profesional y la personal. Un administrador de redes que aplique demasiadas restricciones se gana la antipatía de los usuarios (que no acaban de entender porqué no pueden hacer en el trabajo lo que hacen en casa), y unos usuarios sin muchos conocimientos que crean demasiados problemas se acaban ganando la antipatía del administrador. Como lo reflejan estupendamente las hilarantes historias de wardog, la relación no es fácil.

A esto se añade que muchos usuarios siguen convencidos de que no tienen ninguna obligación de conocer las herramientas informáticas que están utilizando para su trabajo. A partir de una generación determinada, estas herramientas les llegaron más o menos impuestas en un momento dado, cuando ya llevaban años trabajando y les había desparecido la necesidad de aprender (para resolver los problemas ya está el informático). Es como si tuvieras que escribir una carta y considerases que las posibles faltas de ortografía no son responsabilidad tuya porque ya vendrá después el corrector a solucionar el tema. De esa generación hacia atrás las cosas van mejorando, pero el riesgo está entonces en hacer un mal uso de los conocimientos que se pueden tener porque se ignora como está configurada la red de la que depende cada puesto de trabajo (y esto sí que es trabajo del administrador).

A pesar de todo es un trabajo apasionante y, dejando aparte el rico folcklore que se está generando en Internet sobre las relaciones entre BOFHs (Bastard Operator From Hell)y lusers, IT Crowd incluida, me sumo por una vez a celebrar el día del administrador de sistemas y de paso felicito a otros personajes invisibles, los que mantienen la red a través de la cual puedo estar escribiendo esto ahora. Aquí va un video con un trozo de IT Crowd.

Hoy he encontrado la web de Patrick Rochon, un fotógrafo que utiliza el light painting, o sea, crear efectos a base de proyecciones de luz. Me he bajado unas cuantas fotografías suyas espectaculares y aquí las pongo en plan galería.

un video muy divertido que he encontrado en nexus6. Aquí hay más.

Ayer estuve leyendo un post muy bueno en noticiasdelcosmos sobre la importancia que puede tener el estudio del vacío cósmico para la posible confirmación, a través del LHC, de la teoría de las supercuerdas, la teoría M (y de paso entendí por fin qué es el efecto Casimir). El tema de que, a partir de la física cuántica, el vacío no está vacío, sino generando contínuamente partículas y antipartículas que se destruyen también continuamente, fue uno de los mayores impactos que tuve leyendo la “Historia del tiempo” de Hawking. Teniendo en cuenta este fenómeno de generación cuántica, Hawking pudo suponer que los agujeros negros (inicialmente una hipótesis a la que había llegado a traves de la Teoría de la Relatividad) podían emitir energía, lo que se conoce como la radiación de Hawking.

Bueno, pues resulta que el vacío está lleno de energía, que crea y destruye partículas continuamente, y que esta energía puede ser la energía oscura que contrarresta la gravedad y explica la expansión del universo. Como explican en noticiasdelcosmos:

“Las observaciones han permitido a los físicos estimar la cantidad de energía oscura al deducir la fuerza necesaria para producir este efecto de aceleración. El resultado es una cantidad minúscula de energía por cada metro cúbico de vacío. Como la mayoría del cosmos consiste en espacio vacío, esta pequeña cantidad se acumula al punto de que esta clase de energía domina completamente la dinámica del universo”.

Vale, es el vacío cargado el que domina esta dinámica. Pero entonces me he acordado de un párrafo de Laughlin que me ha impresionado tanto como el de Hawking. Laughlin explica las fases de la materia (los estados sólido, líquido o gaseoso) como fenómenos emergentes de organización de una serie de átomos responsables. Y a partir de ahí da otro paso: que el vacío sea en realidad una (otra) fase de la materia:

“Las propiedades del espacio vacío que nos importan presentan todos los signos de un fenómeno emergente, típico de un estado de la materia (…) De hecho, cuanto más analizamos las descripciones matemáticas de las fases frías, más nos acostumbramos al uso de terminologías paralelas e intercambiables para la materia y el espacio. Entonces, en lugar de referirnos a fase de la materia, hablamos de vacío.

A pesar de toda la evidencia que muestra que en física el paradigma reduccionista tiene problemas, los experimentos a escala subnuclear siguen describíendose  en términos reduccionistas, hecho sumamente curioso dado que gran parte del trabajo intelectual basado en el modelo estandar revela que el vacío es una fase de la materia”.

Esto es muuuuy fuerte, porque supone ver el universo como una serie de fases en solución de continuidad. Si el vacío es una fase de la materia, no hay tal vacío y el universo está lleno con diferentes densidades. Pero es que además es el vacío el que domina la dinámica. Mmmmmm…

Dav!d me ha enviado hoy este video que explica de una manera muy clara el proceso de sobreproducción y consumo en el que estamos metidos, y el grave problema que supone este proceso para la sostenibilidad del jardín en que hemos crecido, este planeta tan curioso. El video explica sobre todo datos de los USA, pero es extensible a todas las economías desarrolladas. Y el problema más grave es que las economías emergentes siguen este mismo modelo en el que, por definición, no cabemos todos. Pongo la versión traducida en Argentina.

Ayer Rez me evió unos links sobre los sistemas Turing Completo (aquellos que tiene un poder computacional equivalente a la máquina universal de Turing) y la Tesis de Church-Turing. La tesis de Church-Turing fuerte supone que el universo es computable, y computable en este caso quiere decir (tal como lo entiendo) que podría responder a una secuencia determinada (y determinista) de funciones:

"La tesis de Church-Turing tiene además profundas implicaciones. Cuando la tesis es aplicada a la física tiene diversos significados: que el universo es una máquina de Turing y por lo tanto no es posible construir físicamente una máquina con mayor poder computacional o que compute funciones no recursivas (la capacidad de cómputo que puede contener el universo está acoplado al tipo de universo en el que vivimos). A esto se le ha llamado tesis de Church-Turing fuerte. Otra posible interpretación es que el universo no es una máquina de Turing, es decir, las leyes del universo no son computables pero esto no afecta la posibilidad de crear una máquina más poderosa que una máquina de Turing (universo desacoplado al poder computacional de los dispositivos que contiene). Otra posibilidad es que el universo sea una hipercomputadora y entonces sea posible la construcción de máquinas más poderosas que las máquinas de Turing usando como entrada los resultados de dicha súper computadora: el universo o la naturaleza. Para ello posiblemente bastaría con que el universo fuera continuo e hiciera uso de esa continuidad (otra pregunta es qué tan densa es su continuidad)" (wikipedia dixit).

El tema de si el universo es computable me llevó a pensar en Laughlin, en los procesos de organización como paso entre la física cuántica y la newtoniana, y en su desconfianza sobre la capacidad de la computación cuántica:

"Así, con el entusiasmo por la computación cuántica se pasa por alto un factor clave: la base física de la fiabilidad computacional es la newtonianidad emergente. Podemos pensar en una computación que no se valga de esos principios, así como probar por la fuerza que la ruptura de la simetría existe, pero lo más probable es que sea imposible eliminar los errores computacionales, porque la base física es inexistente".

No estoy seguro de que las dudas de Laughlin sean insalvables, pero el tema me planteó una cuestión interesante (al nivel muy amateur en que me muevo en esto): ¿cómo puede ser posible computar fenómenos organizativos o emergentes? Le contesté a Rez lo siguiente:

"una línea que me interesa: ¿son la complejidad, o los fenómenos de emergencia, computables?, es decir, ¿se puede rastrear y formalizar con un algoritmo su rango de aparición? Esto supondría un algoritmo que es capaz de abarcar un rango más o menos extenso de posibilidades de las cuales solo una encajaría con la manera en que los dados acaban cayendo (como los múltiples universos de la teoría de las cuerdas, pero solo vivimos en éste). La ventaja es que cuando hiciera bingo podría encajar lo "accidental" en una jerarquía".

Bueno, pues hoy he acabado de leer un estupendo artículo de Markus Aspelmeyer y Anton Zeilinger, "A quantum renaissance", en donde entre muchas otras cosas he encontrado este párrafo:

In this scheme, called “one-way” quantum computing, a computation is
performed by measuring the individual particles of the entangled cluster
state in a specific sequence that is defined by the particular
calculation to be performed. The individual particles that have been
measured are no longer entangled with the other particles and are
therefore not available for further computation. But those that remain
within the cluster state after each measurement end up in a specific
state depending on which measurement was performed. As the measurement
outcome of any individual entangled particle is completely random,
different states result for the remaining particles after each
measurement. But only in one specific case is the remaining state the
correct one. Raussendorf and Briegel’s key idea was to eliminate that
randomness by making the specific sequence of measurements depend on the
earlier results. The whole scheme therefore represents a deterministic
quantum computer, in which the remaining particles at the end of all
measurements carry the result of the computation.

El tema es un poco denso (y no estoy seguro de si lo acabo de entender del todo), pero cuando he leido "But only in one specific case is the remaining state the correct one" me ha hecho diana en lo que le comentaba ayer a Rez, computar de una manera determinista la aleatoriedad de las respuestas cuánticas, en este caso creando una jerarquía en la secuencia de cálculo a partir de resultados anteriores. Tal como lo entiendo, en el artículo no se refieren a algoritmos, sino a la fiabilidad de las señales que cruzan las puertas lógicas, pero el problema es similar (creo). Puede ser una manera de despejar las dudas de Laughlin. Fin.

Hoy he encontrado esta foto (he perdido el enlace) de una reproducción-performance-casera de uno de mis cuadros favoritos, “La balsa de la medusa” de Gericault, y está genial, incluido el carrito del supermercado. Ya puse otro post sobre este cuadro, con un largo poema en clave mimética. Pues bueno, si Gericault era un pintor a la deriva, la deriva ha llegado hasta Manhattan, y allí ha perdido fuelle y ha ganado en gracia. Aquí está la foto:

y aquí está el original

Hoy me he enterado de que, del 18 al 22 de este mes, se va a celebrar en Barcelona el Euroscience Open Forum (ESOF 2008). He estado curioseando por el programa y se me han puesto los dientes largos. Hay conferencias sobre muchos temas que he comentado aquí (como “The Grid“, o el vacío que resulta que no está tan vacío o el paso del software libre al conocimiento libre), y sobre otros que no he comentado pero que me interesan igualmente (como los materiales orgánicos electrónicamente activos que pueden reemplazar a los inorgánicos en determinadas tecnologías, o el problema que supone la materia oscura y la energía oscura, o la asimetría entre materia y antimateria, y otros). Ya babeaba pensando en la suerte de que vinieran a mi ciudad a explicar todo eso, he ido raudo a registrarme y… frenazoooo: la inscripción cuesta 350 euros. No way, seguiré buscando la información por Internet.

Pero bueno, uno de los temas que más me han puesto es una conferencia titulada “Consciousness in context” que presentan así:

Although we now know more than ever about the function
and anatomy of neural systems underlying human experi-
ence, no one has come close to explaining conscious-
ness. Have cognitive scientists focused too narrowly on
the neural basis of consciousness and failed to consider
perspectives from philosophy and other humanities disci-
plines? Perhaps the source of our inability to bridge the
gap between neural systems and consciousness is our ne-
glect to consider that consciousness only arises in the con-
text of experience. This session presents two cutting edge
research projects on one of the most intriguing scientific
questions facing us today.

La frase clave ha sido “our neglect to consider that consciousness only arises in the context of experience” y, sobre todo, la idea de que la conciencia solo aparerezca en un contexto determinado y en relación con él. Esta dependencia del contexto de la experiencia puede suponer que la conciencia emerge de lo que Laughlin llama un efecto organizativo (o colectivo), un efecto que solo se produce (y se puede medir y acordar con una ley) cuando se dan una cantidad suficiente de elementos que interactúan, un umbral cuantitativo:

“La superconductividad es un efecto organizativo que, como la cristalización, es indefinido cuando la cantidad de electrones es muy pequeña.”

Acabo de leer a Laughlin y una cosa me ha llevado a la otra (esto es puro brainstorming), pero me mola la idea de la conciencia como un bucle sobre un efecto colectivo ligado al contexto de la experiencia, y me mola el doble aplicar recetas de física, copiadas a la biología, para lanzar cabos sobre temas de neurología y ciencias cognitivas relacionados con la caja negra de la conciencia.