Información

7: Procesamiento de información - Biología

7: Procesamiento de información - Biología


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

La naturaleza de la información biológica, cómo se copia y transmite, cómo se lee e interpreta y cómo da lugar a las actividades celulares que podemos observar, es el tema de este capítulo. También se considera otro tipo de información, hacia el final del capítulo: la información molecular que las células reciben y se envían entre sí. Esta información, superpuesta a las instrucciones de los genes, proporciona a las células pistas continuas sobre su propio estado interno y el entorno que las rodea. La interacción de estos dos tipos de información es responsable de la forma y el comportamiento de todos los organismos vivos.

  • 7.1: Preludio al procesamiento de la información
    Como criaturas acostumbradas a considerarnos excepcionales, los humanos seguramente deben sentirse humildes al darse cuenta de que las instrucciones, para hacer uno de los nuestros, residen en una molécula tan simple que los científicos, durante mucho tiempo, no creyeron que pudiera contener suficiente información. para construir incluso una simple celda. Pero una gran cantidad de evidencia, acumulada durante el siglo pasado, respalda la afirmación de Larison Cudmore de que la información para convertirnos a ti y a mí (y todos los demás tipos de seres vivos del mundo
  • 7.2: Genes y genomas
    Durante muchos años, los científicos se preguntaron sobre la naturaleza de la información que dirigía las actividades de las células. ¿Qué tipo de moléculas transportaban la información y cómo se transmitía la información de una generación a la siguiente? Experimentos clave, realizados entre las décadas de 1920 y 1950, establecieron de manera convincente que esta información genética era transportada por el ADN. En 1953, con la elucidación de la estructura del ADN, fue posible comenzar a investigar cómo se transmite y utiliza esta información.
  • 7.3: Replicación del ADN
    La única forma de crear nuevas células es mediante la división de las células preexistentes. Los organismos unicelulares se dividen para producir más células como ellos, mientras que los organismos multicelulares surgen a través de la división de una sola célula, generalmente el óvulo fertilizado. Cada vez que una célula se divide, todo su ADN debe copiarse fielmente para que se pueda transmitir una copia de esta información a la célula hija. Este proceso se llama replicación del ADN.
  • 7.4: Reparación del ADN
    Es evidente que si el ADN es la copia maestra de las instrucciones para un organismo, entonces es importante no cometer errores al copiar el ADN para transmitirlo a nuevas células. Aunque la corrección de pruebas mediante ADN polimerasas aumenta en gran medida la precisión de la replicación, existen mecanismos adicionales en las células para garantizar aún más que el ADN recién replicado sea una copia fiel del original, y también para reparar el daño al ADN durante la vida normal de una célula.
  • 7.5: Transcripción
    En las secciones anteriores, hemos discutido la replicación del ADN de la célula y los mecanismos por los cuales se mantiene cuidadosamente la integridad de la información genética. ¿Qué hacen las células con esta información? ¿Cómo controla la secuencia del ADN lo que sucede en una célula? Si el ADN es un libro de instrucciones gigante que contiene todo el "conocimiento" de la célula que se copia y se transmite de generación en generación, ¿para qué sirven las instrucciones? ¿Y cómo utilizan las células estas instrucciones?
  • 7.6: Procesamiento de ARN
    Hasta ahora, hemos analizado el mecanismo por el cual la información de los genes (ADN) se transcribe en ARN. El ARN recién creado, también conocido como transcripción primaria, se procesa aún más antes de que sea funcional. Tanto los procariotas como los eucariotas procesan sus ARN ribosomales y de transferencia.
  • 7.7: Traducción
    La traducción es el proceso mediante el cual se utiliza la información de los ARNm para dirigir la síntesis de proteínas. Como has aprendido en la introducción a la biología, en las células eucariotas, este proceso se lleva a cabo en el citoplasma de la célula, mediante grandes máquinas de ARN-proteína llamadas ribosomas. Los ribosomas contienen ARN ribosómico (ARNr) y proteínas. Las proteínas y el ARNr están organizados en dos subunidades, una grande y una pequeña.
  • 7.8: Expresión genética
    Los procesos de transcripción y traducción descritos hasta ahora nos dicen qué pasos están involucrados en la copia de información de un gen (ADN) en ARN y la síntesis de una proteína dirigida por la secuencia de la transcripción. Estos pasos son necesarios para la expresión génica, el proceso mediante el cual la información del ADN dirige la producción de las proteínas que necesita la célula.
  • 7.9: Señalización
    Es intuitivamente obvio que incluso los organismos unicelulares deben poder sentir características de su entorno, como la presencia de nutrientes, si quieren sobrevivir. Además de poder recibir y responder a la información del entorno, los organismos multicelulares también deben encontrar formas en las que sus células puedan comunicarse entre sí.

Miniatura: ADN de doble hélice. Imagen utilizada con permiso (dominio público; NIH - Genome Research Institute).


Minería de textos biomédica

Minería de textos biomédica (incluso procesamiento biomédico del lenguaje natural o BioNLP) se refiere a los métodos y el estudio de cómo la minería de textos puede aplicarse a textos y literatura de los dominios biomédica y de biología molecular. Como campo de investigación, la minería de textos biomédicos incorpora ideas del procesamiento del lenguaje natural, bioinformática, informática médica y lingüística computacional. Las estrategias desarrolladas a través de estudios en este campo se aplican con frecuencia a la literatura biomédica y de biología molecular disponible a través de servicios como PubMed.


Las soluciones de Samacheer Kalvi para Matemáticas Término 2 - Clase 4º Capítulo 7 de la Junta Estatal de Tamil Nadu (Procesamiento de información) incluyen todas las preguntas con solución y explicación detallada. Esto despejará las dudas de los estudiantes sobre cualquier pregunta y mejorará las habilidades de aplicación mientras se preparan para los exámenes de la junta. Las soluciones detalladas paso a paso lo ayudarán a comprender mejor los conceptos y aclarar sus confusiones, si las hubiera. Shaalaa.com tiene la Junta de Matemáticas de Educación Secundaria de Tamil Nadu, Término 2 - Clase 4, Soluciones de la Junta Estatal de Tamil Nadu de una manera que ayuda a los estudiantes a comprender los conceptos básicos mejor y más rápido.

Además, en Shaalaa.com ofrecemos estas soluciones para que los estudiantes puedan prepararse para los exámenes escritos. Las soluciones de libros de texto de Samacheer Kalvi pueden ser una ayuda fundamental para el autoaprendizaje y actúan como una guía de autoayuda perfecta para los estudiantes.

Los conceptos cubiertos en Matemáticas Término 2 - Clase 4ta Junta Estatal de Tamil Nadu, capítulo 7 El procesamiento de información es un mapeo del espacio que nos rodea.

Uso de las soluciones Samacheer Kalvi Class 4th El ejercicio de procesamiento de información realizado por los estudiantes es una manera fácil de prepararse para los exámenes, ya que implican soluciones organizadas por capítulos y páginas. Las preguntas involucradas en Samacheer Kalvi Solutions son preguntas importantes que se pueden hacer en el examen final. Los estudiantes máximos de la Clase 4 de la Junta de Educación Secundaria de Tamil Nadu prefieren Samacheer Kalvi Textbook Solutions para obtener más puntajes en el examen.


Procesamiento de información: agregando un toque de color

Un innovador programa informático aporta color a las imágenes en escala de grises.

Crear una imagen en color realista de alta calidad a partir de una imagen en escala de grises puede ser un desafío. Los métodos convencionales generalmente requieren la entrada del usuario, ya sea usando una herramienta de garabatos para colorear la imagen manualmente o usando una transferencia de color. Ambas opciones pueden resultar en una calidad de coloración deficiente limitada por el grado de habilidad del usuario o el rango de imágenes de referencia disponibles.

Alex Yong-Sang Chia, del Instituto de Investigación de Infocomm de A * STAR, y sus compañeros de trabajo han desarrollado un programa informático que utiliza la gran cantidad de imágenes disponibles en Internet para encontrar coincidencias de color adecuadas para imágenes en escala de grises. El programa busca cientos de miles de imágenes en color en línea, haciendo referencias cruzadas de sus características y objetos clave en primer plano con los de las imágenes en escala de grises.

"Hemos desarrollado un método que aprovecha el abundante suministro de datos de Internet para colorear fotos grises", explica Chia. "El usuario segmenta la imagen en objetos principales separados en primer plano y agrega etiquetas semánticas nombrando estos objetos en la foto gris. Nuestro programa luego escanea Internet usando estas entradas para encontrar coincidencias de color de objeto adecuadas".

Dada la gran cantidad de datos visuales disponibles en línea, no todas las imágenes elegidas son útiles. Una vez que se han encontrado las imágenes de color iniciales, el programa las filtra para encontrar las coincidencias más realistas y adecuadas para las entradas del objeto en escala de grises.

"Nuestro método detecta y segmenta automáticamente los objetos destacados de una foto de Internet", explica Chia. "Luego explota la información de forma y apariencia de estos objetos para calcular su relevancia para los datos originales de la imagen en escala de grises".

La imagen en escala de grises se colorea automáticamente utilizando la información recopilada de las imágenes basadas en Internet (en la imagen). Sin embargo, la coloración plausible de las imágenes es de vital importancia, ya que el ojo humano puede distinguir rápidamente entre coloración real y "falsa". Con este fin, el usuario tiene la última palabra sobre la elección de los colores. "El programa genera varias coloraciones de imagen y el usuario puede elegir la que mejor se adapte a una interfaz gráfica de usuario", explica Chia.

Para demostrar la capacidad del programa, Chia y su equipo mostraron a un grupo de personas sus imágenes en escala de grises en color junto con imágenes en color real, pidiéndoles que identificaran cuáles habían sido coloreadas artificialmente. "Nuestras imágenes en color se clasificaron como 'reales' hasta el 65% de las veces", dice Chia. "En general, los resultados de la coloración son visualmente agradables y perceptualmente significativos para los usuarios".

Los investigadores esperan ampliar la gama de aplicaciones que utilizan esta tecnología en el futuro. Ellos prevén que la tecnología algún día podría volverse tan poderosa que podría usarse para generar animaciones realistas.

Los investigadores afiliados a A * STAR que contribuyen a esta investigación son del Institute for Infocomm Research


Introducción

La complejidad es visible en la mayoría de las disciplinas científicas: matemáticos, físicos, biólogos, químicos, ingenieros y científicos sociales, todos desarrollaron medidas para caracterizar la complejidad que perciben en sus sistemas, tomando prestadas herramientas entre sí, pero rara vez o nunca acordando una medida que podría ser utilizado por todos ellos. Debido a que los objetos que más preocupan a cada una de estas disciplinas son tan diferentes, que van desde problemas matemáticos y programas de computadora sobre estructuras físicas, químicas o biológicas, hasta sistemas y redes de agentes que interactúan, tal vez no sea una convergencia de medidas cuantitativas de complejidad. probable. Sin embargo, un marco universal que sea capaz de adaptar su noción a la disciplina específica a la que se aplica sería una tendencia bienvenida. Abundan las medidas de complejidad, pero las revisiones exhaustivas son pocas. Una buena introducción al enfoque de la complejidad de los sistemas dinámicos es la Ref. [1], pero no cubre las aplicaciones biológicas. Las descripciones generales [2] - [4] se centran en la complejidad de las secuencias biológicas pero no en su estructura, y en su mayoría ignoran la complejidad de las redes. Las medidas de complejidad neuronal se revisan en [5].

Entre las diferentes medidas de complejidad, algunas intentan cuantificar la estructura [6] - [13], otras la secuencia que da lugar a esa estructura [14] - [19], y otras nuevamente la función de la secuencia o sistema [20] - [22]. Todos estos estudios intentan captar “lo que aumenta cuando los sistemas autoorganizados se organizan” [23] (una lista no exhaustiva se presenta en la Ref. [24]). Cada vez más, las medidas basadas en la teoría de la información se utilizan para cuantificar la complejidad de los sistemas vivos, porque la información proporciona a su propietario una ventaja de aptitud obvia en comparación con aquellos sin información al conferir la capacidad de hacer predicciones sobre el entorno en el que operan [25] - [ 27]. En particular, Rivoire y Leibler [27] estudian medidas estadísticas basadas en la teoría de la información que maximizan la aptitud de los agentes que responden a entornos variables, pero no estudian la evolución. Las medidas de complejidad de la teoría de la información se revisan en [28] y las aplicaciones a los gráficos en [29].

Aquí, estudiamos cómo las medidas de complejidad de la teoría de la información podrían aplicarse para capturar la complejidad de los sistemas nerviosos [5], [30], o más en general, cualquier estructura que controle un ciclo de percepción-acción. En ausencia de una definición bien aceptada de complejidad, estudiamos la correlación de diferentes medidas para aptitud del organismo, siguiendo la intuición de que una medida bien definida de la complejidad de la estructura de control debería aumentar durante la adaptación [20]. La aptitud es una medida cuantitativa que predice el éxito a largo plazo de un linaje [31], [32] y viene dada por número esperado de descendientes de un representante medio con el genotipo dado. Desafortunadamente, esta es solo una medida cuantitativa para los organismos más simples donde el número esperado de descendientes se puede determinar a partir de la tasa de replicación, o en experimentos de competencia directa (ver, por ejemplo, [33]). En el caso de organismos más complejos, la aptitud relativa solo se puede estimar en retrospectiva y no se puede utilizar como un sustituto de la complejidad del organismo. Sin embargo, si evolucionamos las estructuras de control en silico Cuando se dispone de información completa sobre la aptitud, podemos utilizar la aptitud (dentro de un nicho) como árbitro independiente de las supuestas medidas de complejidad basadas en información: cualquier medida que no aumente a medida que el organismo aprende a explotar su entorno es poco probable que refleje un procesamiento de información complejo. . Porque en este tipo de experimento de evolución el número de descendientes es directamente proporcional, en promedio, al rendimiento del organismo en una tarea crítica para su supervivencia, aquí estudiamos la correlación de la complejidad directamente con el desempeño o función.

Tenga en cuenta que debido a que la aptitud se refiere necesariamente al medio ambiente (mide qué tan bien el organismo "encaja" en su nicho mediante la explotación de los atributos del nicho), la aptitud no se puede utilizar para comparar la complejidad del organismo entre nichos (como intentar comparar un elefante y una hormiga en términos de su aptitud), pero revela diferencias funcionales entre tipos que se deben a la eficiencia de la explotación del mismo entorno. Para los organismos biológicos que ocupan el mismo nicho, es decir, "se ganan la vida" de la misma manera, la aptitud relativa debe correlacionarse con la complejidad funcional relativa. ¿Es cierto que dado un entorno constante, el organismo más complejo es necesariamente más apto? Responder afirmativamente a esta pregunta sesga claramente nuestra noción de complejidad: solo los personajes útiles se consideran complejos, los inútiles no. Si bien este sesgo puede ser restrictivo para la complejidad estructural, no lo es para las medidas de complejidad de la teoría de la información, ya que la información (si puede usarse para reducir la incertidumbre) lo hará. siempre Sería útil: si no lo fuera, debería llamarse entropía en su lugar [25], [34].

Información predictiva

Quizás la medida de complejidad funcional basada en información más conocida es la “información predictiva” [35], que cuantifica la cantidad de información que se puede extraer de los datos sensoriales para seleccionar acciones que son útiles para el organismo. De esta manera, la información predictiva es capaz de separar aquellas características de los datos sensoriales que son relevantes para el comportamiento y cuantifica la cantidad de información procesada por el organismo. La información predictiva también se ha propuesto como una medida de la complejidad de la función [35].

Si describimos las variables de entrada de una red de control ("sensores" o "estímulos") en un momento por la variable aleatoria y las variables de salida ("motores" o "respuesta") en ese momento por, entonces la información compartida (utilizada para predicción) es [35] (1) donde y son las distribuciones de probabilidad del sensor y las variables de respuesta en el momento, respectivamente, y es la distribución de probabilidad conjunta del sensor y las variables de respuesta “en el futuro y en el presente” [35] ( usamos el logaritmo binario en todo momento y asumimos que la red evoluciona a lo largo de pasos de tiempo discretos). caracteriza la capacidad del sistema de control para predecir el futuro un paso adelante, utilizando la información sensorial presente. Esencialmente, cuantifica la correlación entre entradas y salidas, y puede considerarse como la divergencia de Kullback-Leibler (o entropía relativa) entre la distribución de probabilidad total y el producto de las independientes,.

Tenga en cuenta que para los procesos de Markov, la entropía compartida de un paso (1) es igual a la entropía compartida entre todo el pasado y todo el futuro (ver [36], Apéndice A.1), mientras que esto no es cierto para los procesos que pueden utilizar la memoria. La información predictiva se utilizó anteriormente para caracterizar la complejidad del comportamiento de un robot autónomo sin memoria en la Ref. [36] (véase también el texto S1). Si la estructura de control no es puramente reactiva y utiliza información codificada en nodos internos para integrar flujos de información sensorial, necesitaremos medidas de complejidad que vayan más allá de la información predictiva [27].

Información integrada

Un principio de diseño fundamental y único de los sistemas nerviosos es su extraordinario grado de integración entre módulos altamente especializados [5], [37], [38]. La integración funcional se logra mediante una red extendida de conexiones intra e interáreas, y se refleja en patrones de sincronización que cambian dinámicamente. Recientemente se desarrolló una forma precisa de medir la capacidad de un sistema para integrar información [39], [40] y se aplicó a redes de ejemplo pequeñas y sencillas. Esta medida, denominada y medida en bits, se basa en la noción de que la integración de la información se logra mediante diseños arquitectónicos que dan lugar a un único complejo funcionalmente unificado (alta integración) al tiempo que aseguran que dicho complejo tenga un repertorio muy amplio de estados discriminables. (alta información). captura en qué medida, informativamente, el todo es más que la suma de sus partes y, por lo tanto, no puede reducirse a esas partes. En este sentido, representa la sinergia del sistema. Antes de introducir correctamente, definimos algunas cantidades relacionadas.

Para estudiar la integración de información, tenemos que definir la información procesada por toda la red, no solo los sensores y motores como en Eq. (1). Representemos el sistema como una variable aleatoria conjunta, donde representan el elementos del sistema (los nodos de una estructura de control, como una red neuronal). La variable aleatoria evoluciona a medida que el sistema avanza en el tiempo, es decir, y cada variable se describe mediante una distribución de probabilidad que se encuentra en los estados (aquí, nos limitaremos a las variables aleatorias binarias).Al mismo tiempo, cada nodo del sistema tiene una progresión en el tiempo y cada variable se describe mediante una distribución de probabilidad. A continuación, definimos formalmente medidas de integración de información a través de pasos de tiempo (desde), pero luego nos enfocamos en la integración computacionalmente más accesible a través de un solo paso promedio de.

La cantidad de información que procesa el sistema entero a través de pasos de tiempo viene dado por (2) donde y son las distribuciones de probabilidad del sistema en el tiempo y respectivamente, y es su distribución conjunta. Esta medida se reduce a la información predictiva Eq. (1) para procesos de Markov que conectan solo sensores y nodos de respuesta, es decir, si no hay variables internas (u ocultas).

Una forma de medir la integración de la información es preguntar cuánta información procesa el sistema más allá de lo que procesan los nodos individuales o grupos de nodos (módulos). Para hacer esto, presentamos un dividir de la red en partes, donde cada una es parte de la red: un conjunto de nodos no vacíos sin superposición entre partes que recubren completamente la red. Luego, podemos definir una cantidad que mida cuánto la información procesada por toda la red es más que la información procesada por todas las partes en esta partición en particular de la siguiente manera.

Sea la información procesada por la pieza a medida que el sistema avanza desde el tiempo 0 al tiempo. Luego, la información sinérgica procesada por la red dada una partición cuantifica hasta qué punto toda la información procesada es una suma de la información procesada por las partes del sistema, y ​​se calcula como: (3) Desde un punto de vista teórico de la información, la información sinérgica mide el exceso de información que se puede codificar en un canal de "acceso múltiple" con fuentes correlacionadas y un decodificador conjunto [41] por encima de lo que cada uno de los canales individuales (las partes de la partición) puede codificar por separado. Una medida relacionada con la información sinérgica es la "información efectiva": (4) Aquí, es la entropía condicional de la partición dado el estado de esa partición, pasos posteriores, y es la entropía condicional de todo el sistema en el paso de tiempo dado el estado. de ese sistema pasos más tarde (ver también el Texto S3). La cantidad (4) es el promedio sobre los estados de la red en el tiempo (estados) de la cantidad denominada "información efectiva a través de una partición" en la Ref. [40]. Si la distribución de probabilidad que gobierna es uniforme (máxima entropía), las dos medidas concuerdan:, pero son diferentes en general (ver Texto S3). A continuación, usaremos principalmente la ecuación. (4).

Para determinar cómo una red integra la información, debemos buscar una partición que minimiza (4), porque es fácil encontrar un valor alto de asignando diferentes partes a nodos que están fuertemente correlacionados. En esencia, buscar la partición que minimiza equivale a buscar los grupos de nodos que están separados de otros grupos de nodos por un enlace de información débil [40]. Para encontrar esta partición, es necesario normalizar la expresión (4) porque, de lo contrario, la partición que minimiza (4) será casi siempre la que divide una red de partes en una con partes y un único nodo [40]. Definimos la "partición de información mínima" (o "MIP") como la partición que minimiza un normalizado : (5) donde es la máxima entropía de la partición. Si las neuronas son binarias, entonces es solo el número de neuronas en partición. Armados con esta definición del MIP, nuestra medida de integración de información es: (6) Tenga en cuenta que representa el promedio (sobre todos los posibles estados finales de la red) de la cantidad dependiente del estado definida previamente [40], y el subíndice nos recuerda que la integración se mide a partir de una distribución de probabilidad inicial en un momento uniforme.

La medida se puede adaptar para caracterizar la integración de información en un solo paso de tiempo simplemente definiendo (7) con un MIP definido conmensuradamente: (8) donde es la entropía máxima de la partición en el paso de tiempo. Tenga en cuenta que hemos omitido un índice como se define en la ecuación. (7) ya que suponemos que para grande se vuelve estacionario:. Este MIP, al igual que el definido por Balduzzi y Tononi [40], divide la red en partes disjuntas que son informativamente dispares al máximo, aquellas partes que son más independientes. Como se define aquí, es equivalente a la recientemente definida [42], porque se basa en la reducción (en el paso de tiempo) en la entropía de Shannon basada en la entropía empírica en el paso de tiempo, no en la reducción de la entropía máxima en el paso de tiempo 0 como en [40]. Por lo tanto, nuestra Eq. (7) es equivalente a la ecuación. (29) en la Ref. [42] (reemplazado por), excepto que buscamos en todas las particiones en lugar de solo en las bi-particiones, y el factor de normalización de Barrett y Seth usa la mayor de las entropías reales de las partes. Debido a que mediremos la integración de información para series de tiempo generadas por una animación en movimiento, usaremos la Ec. (7) para cuantificar la complejidad del animat en lo que sigue.

Si las redes son pequeñas, es posible encontrar el MIP probando por fuerza bruta todas las particiones posibles. El número de particiones de los nodos es el número de Bell, [43]. La búsqueda en todas las particiones es sumamente cara y escala más rápido que exponencial. Por ejemplo, = 5, = 115,975 y. Para redes de tamaño realista, la heurística de búsqueda será la única forma de encontrar el MIP: para el nematodo C. elegans, por ejemplo, [30], y el número de particiones de esta red es absurdamente grande. Aquí, las redes más grandes que analizamos tienen 12 nodos, pero hemos podido calcular para redes con hasta 18 nodos utilizando un algoritmo rápido y exacto que no almacena todas las particiones.

Complejo principal

Un sistema compuesto por una gran red junto con una sola unidad desconectada siempre tendrá, porque minimizando todas las particiones se encuentra la desconexión informativa entre la red y el nodo desconectado, y la información mínima efectiva entre estas partes es cero [40]. Una medida que captura el procesamiento de información que es sinérgico sin ser trivial se puede obtener mediante la definición de la red computacional. complejo adecuado [44] como un subconjunto de variables aleatorias (conjuntas) dentro del sistema () que maximiza todos los subconjuntos y superconjuntos, es decir:

Si se define como el subconjunto de, entonces (9) Cada red puede tener varios complejos (propios), con complejos más pequeños de mayor incrustado dentro de complejos más grandes de menor. Definimos el complejo principal adecuado como el subconjunto asociado con los valores más grandes en todos los subconjuntos de todo el sistema. Denotamos la integración de información en el propio complejo principal como. En la figura 1 se muestra una red simple con MIP y el complejo principal identificado.


El papel de la teoría en el avance de la biología del siglo XXI: catalizando la investigación transformadora (2008)

Desafortunadamente, este libro no se puede imprimir desde OpenBook. Si necesita imprimir páginas de este libro, le recomendamos que lo descargue como PDF.

Visite NAP.edu/10766 para obtener más información sobre este libro, comprarlo en forma impresa o descargarlo como un PDF gratuito.

A continuación se muestra el texto no corregido leído por máquina de este capítulo, destinado a proporcionar a nuestros propios motores de búsqueda y motores externos un texto de búsqueda altamente rico y representativo del capítulo de cada libro. Debido a que es material SIN CORREGIR, considere el siguiente texto como un sustituto útil pero insuficiente de las páginas autorizadas del libro.

7 ¿Cuál es la información que define y sostiene la vida? Los avances en la tecnología han aumentado drásticamente la cantidad de datos biológicos que se recopilan. Por ejemplo, ahora se dispone de datos de la secuencia de ADN de los genes de muchos organismos e imágenes de satélite de muchos ecosistemas. Si bien esta proliferación de datos presenta nuevas y emocionantes oportunidades, hacer un buen uso de ellos también presenta desafíos importantes. La tecnología informática cada vez más poderosa proporciona una herramienta poderosa para el análisis de datos y permite el uso de técnicas como la secuenciación rápida de genomas completos. Sin embargo, en muchos casos, el uso de datos para llegar a conclusiones significativas sobre la vida requiere un trabajo costoso y que requiere mucho tiempo. El intercambio de conjuntos de datos entre investigadores brinda oportunidades para examinar los datos recopilados con un propósito para avanzar en un área diferente. Para que este tipo de intercambio sea más productivo, los conjuntos de datos deben estar codificados, bien seleccionados y bien mantenidos en un formato accesible. Si bien los conjuntos de datos son esencialmente colecciones de información, el papel de la información en biología es mucho más que el uso de conjuntos de datos. El refinamiento y la aplicación de las teorías de la información a la biología presentan un desafío profundo y una oportunidad para profundizar nuestra comprensión de la vida. Las teorías existentes de información tomadas de otros campos pueden ser difíciles de aplicar a la biología, un campo en el que el contexto es tan importante, pero la ganancia conceptual bien puede valer la pena. ¿QUÉ ES INFORMACIÓN? El concepto de información se utiliza en toda la biología. Los biólogos estudian cómo se adquiere, utiliza, almacena y transfiere la información en los seres vivos. 110

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 111 Muchas estructuras o procesos biológicos pueden considerarse portadores de información. Desde la secuencia de una molécula de ADN hasta los sonidos, los impulsos nerviosos, las moléculas de señalización o los gradientes químicos, los científicos encuentran útil caracterizar la biología en términos de información. Desde el descubrimiento crítico del "código genético" como acoplador entre la secuencia de ADN y la síntesis de proteínas, hasta la maravillosa capacidad de las abejas para transmitir información sobre la ubicación y la calidad de los recursos a través de la danza, es intuitivamente atractivo describir los procesos y estructuras. de la biología en términos de información. A lo largo de este informe, existen numerosos ejemplos de representación y transmisión de información. Las preguntas que surgen naturalmente sobre la información en biología incluyen las siguientes: ¿Existe una forma común de pensar en la información biológica en todas estas representaciones? ¿Existe una forma coherente y útil de medir la información biológica de modo que pueda tratarse en descripciones cuantitativas de la genética, la evolución, los procesos moleculares y la comunicación entre organismos? En el uso común, la palabra "información" transmite muchas nociones diferentes. A menudo se utiliza como sinónimo de "datos" o conocimiento, y en la mayoría de los usos del lenguaje se asocia con números o palabras escritas o habladas. Esta conexión es clave para un uso más científico del término, ya que sugiere que la información puede ser representada por números o letras o más generalmente por símbolos de cualquier forma. De hecho, la información debe tener una representación, ya sea como símbolos escritos, bits en computadoras o en macromoléculas, células, sonidos o impulsos eléctricos. El uso informal de términos informativos está muy extendido en biología molecular. Por ejemplo, la biología molecular utiliza palabras que se relacionan con la transferencia y el procesamiento de información como términos técnicos para procesos biológicos. La elección de palabras como código, traducción, transcripción, mensajero, edición y corrección de pruebas refleja cómo los científicos piensan en estos procesos. Cuando la información se utiliza como concepto central para pensar en biología molecular, resalta las propiedades de secuencia de las moléculas en estudio, en lugar de sus formas fisicoquímicas reales (Godfrey-Smith, 2007). Esto impulsa un enfoque en el papel de representación abstracto de estas moléculas, en lugar de la naturaleza de los procesos físicos (por ejemplo, la bioquímica de la maquinaria de traducción) que inevitablemente se requieren para expresar la información almacenada en forma significativa. Es importante pensar detenidamente sobre la información en muchos niveles, tanto por debajo del nivel de secuencia en detalle molecular como por encima en niveles superiores de organización. INFORMACIÓN EN BIOLOGÍA August Weismann parece haber sido el primero en utilizar explícitamente la noción de transmisión de información en genética en 1904 cuando se refirió a la transmisión de información en herencia (Weismann, 1904). El meta-

La forma de información representada en forma escrita o electrónica se ha generalizado, pero ¿es más que una metáfora o una analogía? El concepto se puede formular cuantitativamente para la biología molecular, quizás lo más sorprendente en la operación del "código genético" encarnado físicamente en forma de ADN y ARN. En el código genético, las secuencias de tres bases de nucleótidos, llamadas codones, se utilizan como símbolos de los aminoácidos en las proteínas, y la llamada maquinaria de traducción de la célula sintetiza bioquímicamente proteínas a partir de las instrucciones codificadas representadas en el ARN. En este caso, la cantidad de información transmitida, por ejemplo, se puede calcular a medida que pasa del ADN al ARN y luego a la proteína, en cuyo proceso una fracción de la información (aproximadamente la mitad) normalmente no se utiliza o se pierde (Dewey , 1996, 1997). Los sistemas biológicos se diferencian de los sistemas no vivos de varias formas, pero las diferencias más profundas pueden residir en su contenido de información. Para este propósito, puede ser útil pensar en los sistemas biológicos como transductores de información evolucionados, ya que los organismos acumulan, procesan, almacenan y comparten información de diferentes tipos y en diferentes escalas de tiempo. Un organismo necesita información sobre su condición interna para administrar sus funciones internas. Por ejemplo, los organismos utilizan información interna para mantener la homeostasis, coordinar y regular el desarrollo y detectar patógenos potenciales. (Consulte el Capítulo 8 para ver más ejemplos). La información sobre el mundo externo también es fundamental para que un organismo se enfrente eficazmente a ese mundo; por ejemplo, los organismos usan información externa para encontrar refugio, escapar de los depredadores y competir con rivales, y para reproducirse y cuidar de la descendencia. La información sobre la estructura y la función física del organismo también es necesaria para que la evolución proceda, y esta información está secuestrada en el genoma de diversas formas, algunas de las cuales aún no se comprenden. La información descrita anteriormente está representada en una variedad de formas, probablemente ninguna más conocida que la información digital en los genomas de los organismos. Esta información es fundamental para la biología, ya que representa la mayor parte de la información que se transmite en la reproducción (Hood y Galas, 2003). El campo de la genética investiga la forma en que la información simbólica en el material genético se hereda e interpreta como mensajes sobre la estructura de proteínas y ARN o como mensajes sobre el momento y los niveles de expresión génica. La biología celular busca comprender cómo los componentes intracelulares codifican e interpretan la información necesaria para organizar la estructura celular, mantener la homeostasis y llevar a cabo las funciones celulares. El desarrollo puede verse como el estudio de cómo se utilizan estos mensajes para extraer e interpretar la información del genoma con el fin de convertir una sola célula en un organismo multicelular complejo compuesto por miles de células con funciones especializadas. La neurobiología es el estudio de cómo las señales eléctricas generadas internamente se combinan con información sobre el medio ambiente para

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 113 permiten que el animal genere un comportamiento significativo. La inmunología depende críticamente del problema de la detección y la vigilancia: el de distinguir el yo de los invasores dañinos como las bacterias y los virus o el yo aberrante como las células cancerosas. Este problema de detección requiere una sensibilidad y precisión exquisitas, al igual que el proceso de montaje y regulación de las respuestas adecuadas. El almacenamiento y la transmisión de información son fundamentales para los seres vivos, pero no son propiedades exclusivas de la vida. Para la materia inanimada, el poder de almacenamiento y transmisión de información es decididamente limitado, pero no del todo ausente; por ejemplo, cristales, minerales dendríticos, copos de nieve y otras estructuras físicas y químicas se forman y, por lo tanto, almacenan información en forma espontánea. pedido. En los seres vivos, sin embargo, el poder de adquisición y transmisión de información es enorme, característico y casi ilimitado en potencial. La transición de lo inanimado a lo animado bien podría pensarse como la adquisición de la habilidad singular de incrementar el almacenamiento y la transmisión de información, en cantidad y calidad. La posibilidad de este aumento de información, mucho más allá de lo que se ve en la materia inanimada, es fundamental para el proceso llamado evolución. Las maravillosas ideas de Darwin, que encarnan este concepto de manera cualitativa, pueden verse como la comprensión de que la variación y la selección son las características clave de este potencial y que interactúan para acumular información en linajes vivos. De hecho, la idea de evolución se ha reformulado en los tiempos modernos en términos de flujo de información. Se puede pensar en la biología evolutiva como el estudio de cómo la información ingresa al genoma, persiste y cambia con el tiempo: el reflujo y el flujo de información, su ganancia y pérdida. El desarrollo de un tratamiento conceptual de la medición, el almacenamiento y la transmisión de la información en biología requerirá una disciplina lógica. El proceso de hacerlo dilucidará —y suscitará nuevas— preguntas sobre la dinámica de la evolución y los procesos de fisiología, desarrollo y comportamiento y tal vez incluso arroje luz sobre los orígenes y el destino de los sistemas vivos. TEORÍA DE LA INFORMACIÓN Si bien el concepto de información en biología tiene sentido usando una perspectiva del lenguaje común sobre el término "información", y si bien captura la naturaleza simbólica o representativa de gran parte de la información biológica (Godfrey-Smith, 2000), La definición adecuada del tà © rmino â € œinformaciónâ € para uso formal en biologÃa sigue siendo algo esquiva. Las dos preguntas fundamentales son: Primero, ¿cómo se representa o se codifica un tipo particular de información biológica? Y en segundo lugar, ¿cómo se puede definir de manera útil la cantidad de información en una representación dada, biológica o no, y, lo que es más importante, cómo se puede medir? Alguna orientación está disponible en el gran cuerpo de teoría e investigación.

114 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Figura 7.1 Marco de Shannon para pensar sobre la transmisión de información. La información de una fuente está codificada o representada por un transmisor, que envía esa información a través de un canal de comunicación (posiblemente ruidoso) en forma de señal. La señal es recibida por un receptor que decodifica el mensaje y lo entrega al destino. C.E. Shannon, (1948). De la teoría matemática de la comunicación 7-1. Copyright 1949, 1998 de la Junta de Fideicomisarios de la Universidad de Illinois. Usado con permiso de University of Illinois Press. que trata con información fuera del campo de la biología.La teoría de la información, fundada por Claude Shannon y Norbert Wiener, proporciona un enfoque para comprender cuantitativamente los canales de comunicación (Shannon, 1948 Wiener, 1948 Shannon y Weaver, 1949) (Figura 7-1). En la teorÃa de Shannon, la información es esencialmente lo que permite a su portador distinguir entre posibilidades alternativas: la gama de mensajes posibles. Con este enfoque, cuantas más alternativas se pueden distinguir, más información se transmite (Recuadro 7-1). Por ejemplo, sentado en una oficina sin ventanas, uno no puede distinguir entre las diferentes condiciones climáticas posibles en el exterior. Puede estar soleado o nublado. Al verificar el clima en la Web, uno puede averiguar cuál de estos estados está ocurriendo realmente. Por tanto, el informe meteorológico contiene información. Si el informe meteorológico también da la temperatura, entonces se pueden distinguir aún más estados: soleado y caluroso, soleado y frío, nublado y caluroso, nublado y frío. En este caso, el informe proporciona más información que si solo indicara la nubosidad actual. Esta visión de la información está estrechamente relacionada con las nociones de comunicación y cálculo.La cantidad de información transmitida por una señal es proporcional al ancho de banda que se requeriría para enviar esa señal a través de un canal de comunicación o el espacio de almacenamiento que se requeriría para grabar. el mensaje en forma comprimida en una computadora.

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 115 En el enfoque de Shannon de la información, el mensaje es el resultado de una fuente de transmisión que envía una señal en alguna representación dada, generalmente un alfabeto simbólico. En lugar de asignar un contenido de información a cualquier mensaje específico, la cantidad de información enviada a través del canal depende únicamente de las características de esa fuente y del rango de posibles mensajes que podrían enviarse. Los neurocientíficos tienen la ventaja de adaptar la teoría de la información formal a su trabajo, ya que se puede entender fácilmente que los trenes de picos transportan información sobre entradas sensoriales. Sin embargo, en otros campos de la biología, puede ser más difícil definir las propiedades de la "fuente" y el alfabeto simbólico utilizado para representar la información biológica de una manera satisfactoria, por lo que este enfoque presenta problemas conceptuales. Por ejemplo, para calcular la cantidad de información en la secuencia de aminoácidos de una proteína es necesario saber cuántas de esas secuencias son posibles. La pregunta entonces es: ¿Qué significa eso? Literalmente todas las posibles secuencias de aminoácidos de esa longitud, o todas las posibles secuencias representadas en organismos vivos, o todas las posibles secuencias en la base de datos actualmente conocida de secuencias de proteínas, o alguna otra forma de caracterizando las posibilidades? Todas estas posibles "fuentes" diferentes producirían diferentes medidas de información. Este es claramente un enfoque problemático. Teoría algorítmica de la información Un enfoque alternativo para definir la información resalta el papel de la información en la computación. En lugar de medir el contenido de información de una fuente estadística, como hace Shannon, la teoría algorítmica de la información considera solo el mensaje en sí y pregunta qué se requiere para generar o reconstruir solo ese mensaje. Esta idea inherente de “complejidad” proviene de una formulación conocida como complejidad de Kolmogorov, en honor al matemático ruso Andrei Kolmogorov. El concepto clave fue elaborado de forma independiente durante la década de 1960 por Ray Solomonoff (1964), Geoffrey Chaitin (1966) y Kolmogorov (1965). Esta idea simple pero sutil es muy prometedora para la biología. Actualmente se utiliza mucho en el procesamiento de imágenes, el reconocimiento de patrones, las técnicas de inteligencia artificial y otras aplicaciones de ingeniería, pero apenas está comenzando a utilizarse en aplicaciones biológicas. Por ejemplo, este poderoso enfoque se ha aplicado para calcular la filogenia del genoma mitocondrial (Li et al., 2004). Además de las dificultades discutidas anteriormente, está quedando claro que la mayor parte de la información biológica depende del contexto en el que se encuentra: qué otra información está presente en el mismo sistema y cómo esa información influye en el rango de acciones que realiza una proteína. célula u organismo puede tomar. Si la representación de la información no se puede "leer" o utilizar cuando está fuera de contexto, no contiene información significativa. Para

116 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Recuadro 7.1 La base matemática de las ideas de Shannon Supongamos que recibimos un mensaje m que podría tomar cualquiera de las cuatro formas posibles, A, B, C o D, cada una con la misma probabilidad . ¿Cuánta información está asociada con el mensaje m? Debido a que el mensaje nos permite distinguir entre cuatro alternativas diferentes (A, B, C o D), podríamos sentirnos tentados a decir que m transmite cuatro unidades de información. Pero supongamos que recibimos dos de estos mensajes, m1 y m2, uno tras otro. Intuitivamente, sería bueno decir que este par de mensajes nos da el doble de información que el mensaje m. Pero observe que este par de mensajes en realidad nos permite distinguir no entre ocho, sino entre 16 posibilidades igualmente probables. Al duplicar el número de mensajes, hemos cuadruplicado el número de alternativas entre las que podemos distinguir: AA BA CA DA AB BB CD DB AC BC CC DC AD BD CD DD En una serie de artículos tempranos (1917-1928), Harry Nyquist y RVL Hartley señalaron que si medimos la información por el logaritmo del número de alternativas que se pueden distinguir, el problema se resuelve. El mensaje m nos da log (4) unidades de información. El par de mensajes m1 y m2 juntos nos dan log (16) = 2 log (4) unidades de información, exactamente el doble de lo que obtuvimos con un solo mensaje. Ahora bien, ¿qué sucede si los diferentes mensajes tienen diferentes probabilidades de ocurrir? Suponga que el mensaje A se envía con una probabilidad de 7/10, mientras que los mensajes B, C y D ocurren con una probabilidad de 1/10 cada uno. En esta situación, parece que si llega el mensaje B, hemos aprendido más que si llega el mensaje A. Cada mensaje, de la A a la D, nos permite distinguir entre cuatro alternativas, pero de alguna manera parece que hemos aprendido más cuando recibimos el mensaje B que cuando recibimos el mensaje A. Después de todo, en ausencia de conocimiento previo, habríamos sido â € œEsperandoâ € la seà ± al A de todos modos, por lo que cuando A llega, esto no es una sorpresa particular. ¿Podemos capturar esto de alguna manera en nuestra definición de información? Considere otro ejemplo. Supongamos que hay 10 estados posibles del mundo: A1, A2, A3, A4, A5, A6, A7, B, C y D. Entonces, si recibimos la señal B, este ejemplo, una feromona o llamada vocal de una especie comúnmente. transmite poca información a otra especie (o al menos a un tipo de información muy diferente) un gen humano común, rico en información para una célula humana, es probable que no lleve información significativa en una célula bacteriana un segmento de la secuencia de aminoácidos que se pliega en una estructura de proteína funcional en el contexto de la secuencia de su proteína nativa puede ser inútil y no funcional cuando se establece en el contexto de otra secuencia de proteína la estructura de una orquídea

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 117 nos permite distinguir entre 10 estados del mundo. Las señales C y D son las mismas, cada una de las cuales nos proporciona log (10) unidades de información. Si ocurre A1, esto también tiene registro de información (10), pero si simplemente recibimos la señal A en respuesta a este evento, en realidad no averiguamos si A1, A2, A3, A4, A5, A6 o A7 realmente ocurrió. Por lo tanto, hemos perdido la capacidad de distinguir entre siete alternativas, la cantidad neta de información que obtenemos es Log (10) - Log (7) = Log (10/7) Esto sugiere una medida de la información proporcionada por una señal. S que ocurre con probabilidad p: ​​Información (S) = â € “Log p Aplicando esto a nuestro ejemplo anterior: Información (A) = â €“ Log 7/10 = Log 10/7 Información (B) = â € “Log 1/10 = Log 10 Por fin estamos en condiciones de definir la cantidad esperada de información transmitida por una señal. Supongamos que, como en nuestro ejemplo anterior, el mensaje m toma la forma de una de cuatro señales, A, B, C y D, con probabilidades 7/10, 1/10, 1/10 y 1/10, respectivamente. . Luego, con probabilidad 7/10 obtendremos una señal (A) que proporciona Log 10/7 unidades de información, y con probabilidad 3/10 obtendremos una de las tres señales (B, C o D) que proporciona Log 10 unidades de información. La cantidad promedio, o esperada, de información proporcionada es entonces 7/10 Log (10/7) + 1/10 Log (10) + 1/10 Log (10) + 1/10 Log (10). De manera más general, podemos decir que si los símbolos i = 1, 2, 3,. . . , m, se envían con probabilidades p1, p2, p3,. . . . pm la cantidad promedio de información H en un mensaje viene dada por m H (p) = ∠’∑ pi Log (pi) i = 1 flor podría facilitar la polinización sólo para una sola especie de insecto, y así sucesivamente. Casi todos los ejemplos biológicos tienen algún contenido contextual. Las medidas de información discutidas anteriormente no toman en cuenta explícitamente el contexto, ya que fueron diseñadas intencionalmente para estar libres de contexto. Para la biología, el contexto es casi siempre esencial y se necesitan herramientas teóricas consistentes y útiles para describir, medir y usar información contextual en sistemas biológicos complejos.

118 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Teoría de la decisión El campo de la teoría de la decisión explica más directamente el contexto cuando se mide la información. Este es un cuerpo de teoría diseñado para estudiar el comportamiento de elección óptimo. En la teoría de la decisión, la información permite a su portador tomar buenas decisiones en un mundo incierto. La información no se mide por el ancho de banda requerido para transmitirla, o su estructura estadística, sino más bien por su valor. El valor de la información se mide por la mejor recompensa que uno espera obtener de una decisión basada en esa información, menos la mejor recompensa que se puede esperar si tiene que tomar la decisión sin esa información. Por ejemplo, un inversionista puede obtener mayores rendimientos esperados del mercado de valores si sabe más sobre las corporaciones en las que invierte. La información sobre estas corporaciones se mide por la diferencia en los rendimientos esperados. Estas ideas han encontrado un terreno fértil en su aplicación a los problemas de información biológica, particularmente en la ecología evolutiva y la biología del comportamiento. Allí, tanto en los problemas de decisión como en los escenarios de la teoría de juegos, la información se mide de forma rutinaria por su influencia en la aptitud esperada. La evolución establece una relación entre la cantidad de información y su utilidad, pero por el momento se desconoce si esta relación es general, específica o incluso expresable de forma sucinta. La necesidad de más teoría en este caso es evidente, pero se necesitan medidas de información válidas y precisas y probablemente muchos más datos para el desarrollo de esas teorías. Entonces, quizás los biólogos puedan construir buenas teorías cuantitativas que utilicen la información como una medida clave en los sistemas biológicos y comiencen a comprender la complejidad biológica en un sentido cuantitativo, consistente y útil. ALMACENAMIENTO Y EXPRESIÓN DE INFORMACIÓN EN LOS GENES El descubrimiento de cómo los sistemas biológicos transducen la información genética fue uno de los triunfos más profundos de la ciencia del siglo XX. De alguna manera, las células de un organismo contienen la información hereditaria que, dadas las interacciones apropiadas con el medio ambiente, determina el fenotipo y el comportamiento. A lo largo de un siglo, los investigadores en el campo de la genética han desarrollado en gran medida el conjunto común de mecanismos por los cuales todos los organismos vivos representan y expresan la información hereditaria en sus genes, lo que lleva a una comprensión detallada de la base mecanicista de la herencia (ver también Capítulo 9). Sin embargo, quedan varias preguntas por responder para comprender completamente cómo un sistema usa esta información. Primero, la información debe existir en alguna forma física ¿Cuál es la estructura química, mecánica o eléctrica en la que está representada? En segundo lugar, ¿qué significa la información

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 119 codificar, y ¿cómo se codifican y expresan los detalles? En tercer lugar, ¿cómo se transduce la información en su forma física para que pueda realizarse en fenotipo y comportamiento? En el caso de la genética, las reglas de la herencia de ciertas propiedades o rasgos de los organismos, tal como las descubrió Gregor Mendel, fueron redescubiertas a principios del siglo XX. Un descubrimiento inicial importante fue determinar exactamente dónde se encontraba esta información hereditaria. A principios del siglo XX, Boveri, Sutton y Morgan se dieron cuenta de que las reglas conocidas de la herencia podían explicarse si la información sobre la herencia estaba contenida de alguna manera en los cromosomas. Cincuenta años después, Hershey y Chase idearon un experimento asombrosamente simple que utilizó su conocimiento de los virus bacterianos y una licuadora de cocina para proporcionar una fuerte evidencia química y física de que el componente de ADN de los cromosomas era el portador de información real (Hershey y Chase, 1952). Beadle y Tatum (1941) sugirieron que la información en los genes describe cómo producir proteínas: postularon que los genes afectan la función porque cada gen codifica una sola proteína. El siguiente paso conceptual fue descubrir cómo la estructura del ADN codifica la información y cómo esa información puede determinar la formación de un organismo complejo. En principio, esto podría suceder de varias formas. Por ejemplo, el ADN podría formar algún tipo de plantillas geométricas para proteínas complejas. Podría formar algún tipo de sustrato polimérico para impulsar miles de reacciones catalíticas diferentes. O, como resulta ser cierto, el ADN podría ser un conjunto de instrucciones codificadas que es leído y descodificado por otro tipo de maquinaria molecular. Watson y Crick infirieron las reglas que revelaron la ahora famosa estructura de las moléculas de ADN de doble hélice (Watson y Crick, 1953). Crick, Brenner y sus colegas descubrieron que había un código triplete en el ADN de modo que cada tres pares de bases de ADN determina un aminoácido de la proteína resultante (Crick et al., 1961). Posteriormente, Nirenburg, Khorona, Holley y otros desarrollaron las reglas de codificación mediante las cuales las secuencias de ADN se traducen posteriormente en proteínas principalmente mediante el uso de moléculas de ARN sintéticas en mezclas de reacción bioquímica para producir proteínas en el tubo de ensayo. Estas reglas se conocen ahora como el "código genético", aunque ahora se sabe que la molécula de ADN de cada organismo contiene mucho más que la información de la secuencia de proteínas. Gran parte de la revolución posterior en biología molecular que se desarrolló en la última mitad del siglo XX desarrolló la comprensión de los biólogos sobre cómo funciona cada paso de este proceso: cómo el ADN codifica la estructura de las proteínas, cómo la maquinaria celular traduce este código en proteínas y cómo el resto de la molécula proporciona información para el control de qué proteínas sintetizar y cuándo. Por lo tanto, se ha desarrollado una imagen completa del ADN como una molécula excepcionalmente estable que almacena especificaciones complejas para la construcción y el manejo del organismo. La especificación se puede encontrar en un

120 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Código basado en patrones que depende de la disposición lineal de la secuencia de sus monómeros (pares de bases) más que de las propiedades mecánicas o químicas colectivas de la molécula de ADN. De esta imagen se puede concluir que el complejo de reacciones catalizadas por proteínas puede ser orquestado por cómo y cuándo se expresa la información codificada en el ADN, pero cómo la regulación de la expresión del ADN impacta en el comportamiento de las proteínas no era en absoluto obvio. La cuestión de cómo las células procesan la información y realizan los cálculos que controlan la expresión de las proteínas se convirtió en un problema conceptual importante (Jacob y Monod, 1961). La revelación de la estructura del ADN y el código genético abrió la puerta a este problema. Los biólogos ahora comprenden el control de la expresión génica hasta cierto punto, pero toda su complejidad aún no ha sido descifrada. La expresión de información del ADN en partes estructurales, enzimas catalÃticas y otras macromolà © culas impulsa una gran parte de las complejas estructuras y funciones de los sistemas biológicos: cà © lulas, órganos, organismos. Los biólogos apenas están comenzando a descubrir los patrones, las reglas y toda la maquinaria que genera esta complejidad a partir de la información almacenada en el ADN. De hecho, los fundamentos teóricos de este problema general —la base conceptual del control global de la expresión génica— es uno de los principales desafíos modernos de la biología. Jacob y Monod descubrieron cómo una célula bacteriana controlaba la expresión del conjunto de genes que usaba para aprovechar una fuente de energía particular (azúcar lactosa) que encontraba (Cuadro 7-2). Ese trabajo ilustra de forma sencilla cómo la maquinaria molecular y el procesamiento de la información de la célula bacteriana nos informa sobre la regulación de la expresión génica. Los componentes básicos del operón lactosa se muestran en el Cuadro 7-2 (parte b). El represor de lactosa está codificado en un gen cercano, el gen lacI. Esta proteína se produce al mismo nivel bajo todo el tiempo, independientemente del medio o del estado metabólico de la célula. Forma un tetrámero de cuatro unidades idà © nticas que reconoce y se une a un segmento especÃfico de ADN que se superpone al promotor de los genes que metabolizan la lactosa; cuando el represor está unido, la transcripción se interrumpe. La activación de la expresión de los genes metabolizadores de una sustancia en particular es un ejemplo de lo que Monod y Jacob llamaron inducción. En este caso, la lactosa es el inductor. El inductor se une directamente al represor de lactosa y hace que la propia proteína cambie su conformación, haciéndola incapaz de unirse estrechamente al operador. Ésta es la respuesta de inducción básica del operón de lactosa, una desactivación de un mecanismo regulador negativo que permite que prosiga la transcripción del gen. A pesar de su nombre, este operón es sensible a factores distintos a la presencia o ausencia de lactosa. La célula no necesita metabolizar la lactosa si se dispone de otras fuentes de carbono y energía. La glucosa es la fuente de energía preferida en las bacterias porque es una fuente de carbono de alta eficiencia energética.

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 121 (Es uno de los productos del catabolismo de la lactosa por la β-galactosidasa). La capacidad de la glucosa para regular la expresión de una variedad de operones asegura que las bacterias utilicen la glucosa antes que cualquier otra fuente de carbono como fuente de energía. La capacidad de la glucosa para controlar la expresión de varios operones inducibles diferentes se logra a través de una proteína llamada proteína de unión a AMPc (CAP, recuadro 7-2b). Una observación clave para descifrar este mecanismo fue la relación inversa entre los niveles de glucosa y los niveles de cAMP en E. coli. Cuando los niveles de glucosa son altos, los niveles de cAMP son bajos cuando los niveles de glucosa son bajos, los niveles de cAMP son altos.Los biólogos ahora saben que esta relación existe porque el transporte de glucosa al interior de la célula inhibe directamente la enzima adenil ciclasa que produce cAMP. El cAMP luego se une a CAP en la célula bacteriana. El complejo cAMP-CAP, pero no la proteína CAP libre, se une a un sitio en el ADN en los promotores de operones sensibles a la represión de catabolitos. La unión del complejo mejora la actividad del promotor y, por lo tanto, se inician más transcripciones a partir de ese promotor, de modo que hay un control positivo. La lógica de este módulo de control regulatorio funcional es entonces la siguiente. Si hay poca o ninguna glucosa presente y hay lactosa disponible, el operón se enciende. Hay dos entradas y una salida. Se puede pensar en el módulo de lactosa como una especie de integrador. Si la respuesta reguladora fuera binaria o booleana, activada o desactivada, se puede considerar como una "puerta Y". Mientras que el operón lactosa es complejo en el sentido de que varias proteínas, interacciones específicas de la proteína del ADN, Se involucran cambios de conformación en el represor y la proteína CAP, sensores metabólicos y actividades enzimáticas, se comporta como una simple “puerta Y” como se muestra en el Cuadro 7-2c desde el punto de vista de la lógica celular. Los aspectos cuantitativos del comportamiento del operón son importantes para algunos aspectos de la respuesta de la célula, por lo que el modelo booleano es insuficiente en detalle, pero la respuesta básica es realmente muy simple. El sistema del operón de lactosa procesa información sobre el entorno de la célula para regular la expresión de la información almacenada en el genoma de la bacteria. Sin embargo, no está claro qué tan consistentemente describe y mide la información, ya sea del medio ambiente o del genoma. Es difícil describir y medir la información relevante debido a la complejidad del entorno local, la diversidad de tipos de información presentes y la complejidad del genoma. Las bacterias suelen tener unos pocos miles de genes y unos pocos millones de pares de bases de ADN en sus genomas, mientras que los mamíferos tienen unos 25.000 genes y unos pocos miles de millones de pares de bases de ADN en sus genomas. Aunque se están desarrollando modelos integrales de expresión génica, particularmente en bacterias simples y arqueas, la comprensión de los biólogos de la regulación global de la expresión génica en cualquier organismo multicelular está lejos de ser integral (Bonneau et al., 2006).

122 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Cuadro 7-2 El operón de lactosa: una red codificada por el genoma En la década de 1950, los investigadores notaron que la bacteria E. coli sintetiza la enzima β-galactosidasa que metaboliza la lactosa solo cuando la lactosa está presente en su medio de crecimiento. Jacob y Monod y sus colegas se centraron en este fenómeno e hipotetizaron la explicación correcta de su observación. La explicación se desarrolló en el "modelo de operón", y el campo de la regulación de genes moleculares, que sigue siendo un área de investigación importante en biología en la actualidad, comenzó en serio. Los genes de la lactasa (hay tres en lugar de solo la enzima que escinde la lactosa, β-galactosidasa) se copian o transcriben como una sola unidad de ARNm que es común para las bacterias, y el control se logra a nivel de transcripción de este solo ARNm. Los tres genes estructurales que codifican las enzimas proteicas implicadas en el metabolismo de la lactosa son el gen lacZ que codifica para la β-galactosidasa (la β-galactosidasa es una enzima que descompone la lactosa en glucosa y galactosa) el gen lacY que codifica una permeasa (la permeasa participa en la captación de lactosa del medio hacia la célula) y el gen lac A que codifica una galactosa transacetilasa. Estos genes se transcriben a partir de un promotor común en un ARNm, que se traduce para producir las tres enzimas distintas. Debido a que los factores críticos a los que responde la célula son de naturaleza metabólica (la necesidad de utilizar lactosa como fuente de carbono), la red reguladora genética está acoplada a la red metabólica de la célula. El sistema de lactosa fue una elección afortunada de Jacob y Monod porque resulta ser un sistema muy simple, al menos según los estándares de las redes reguladoras genéticas. Estructura y función del operón lactosa. (a.) La organización del operón lactosa se muestra a lo largo de la molécula de ADN genómico (azul). Los promotores se muestran como flechas rojas, y los sitios reguladores en el promotor lac, el sitio de unión a CAP y el sitio de unión al represor, u operador, se muestran como recuadros azules y verdes, respectivamente. (b.) El flujo regulador de información se muestra en azul (regulación genética) y naranja (metabólica), lo que ilustra los componentes esenciales que están acoplados a través de la frontera entre los dominios metabólico y genético. (c.) La estructura lógica de las relaciones regulatorias se resume en este diagrama que usa símbolos comunes en las operaciones lógicas electrónicas. La simplicidad de la lógica básica es evidente aquí, aunque las interacciones bioquímicas y genéticas subyacentes a la lógica son mucho más complejas. REPRESENTAR INFORMACIÓN EN DESARROLLO En el proceso de desarrollo, la información del genoma se utiliza para ejecutar un programa de división y cambio celular (diferenciación) para crear un organismo multicelular a partir de una sola célula. El embrión temprano se desarrolla a partir de una sola célula, impulsado por una red especificada por información en el genoma. Esta información se presenta en dos formas: las secuencias de ADN que se unen

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 123 FUENTE: Cortesía de David Galas. sitios para una serie de proteínas en el ADN y las secuencias de ADN que son segmentos reales de ADN que codifican proteínas. Estas proteínas se unen a sitios en el ADN cercanos a los genes, algunos de los cuales codifican otras proteínas que se unen a sitios de ADN y regulan su expresión (factores de transcripción). La estructura de una de esas redes se indica en la Figura 7-2. Davidson y sus colegas han trazado esta red para el embrión de erizo de mar (Bolouri y Davidson, 2003 Howard y Davidson, 2004

124 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Células esqueléticas de erizo de mar Figura 7-2 Red de desarrollo de embriones de erizo de mar. La estructura de una red que ejecuta el programa de división y diferenciación celular en el embrión precoz del mar Âurchin. Los genes están representados por las líneas horizontales cortas, las relaciones de control están representadas por las líneas que se extienden entre estos genes. Los diferentes módulos que controlan la expresión génica en los diferentes componentes del embrión temprano están indicados en color: El módulo de células de color del segmento 7-2 rosa, el segmento verde El cuadro es el esquelético es el módulo del mesodermo, y así sucesivamente. FUENTE: Reproducido con permiso de Eric H. Davidson. Levine y Davidson, 2005 Istrail y Davidson, 2005). Lo que esta imagen estática no muestra es la dinámica de los niveles cambiantes de expresión génica a medida que el programa se desarrolla en el tiempo y que las primeras 30 horas de desarrollo de la vida del embrión son impulsadas por la red dinámica. También existe una complejidad invisible en las baterías de otros genes, incluidos los genes metabólicos y estructurales que se expresan en cada tipo de célula impulsados ​​por la presencia del conjunto específico de factores de transcripción en las células de cada tipo. Este ejemplo ilustra la naturaleza de la información necesaria y el grado de complejidad involucrado en la embriogénesis temprana. En muchos sentidos, lo más notable de este trabajo y la red reguladora genética resultante es que es descifrable y comprensible en absoluto. La dinámica

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 125 del programa de expresión génica que conduce al embrión de erizo de mar temprano es uno de los casos más explícitos conocidos hasta la fecha donde la definición informativa de la red tiene un significado biológico tan claro. Este avance pronto será sólo uno de los muchos casos de este tipo, y el papel específico y cuantitativo de la información genética en la embriogénesis pronto será mucho más claro. El estudio de redes reguladoras de genes en diferentes organismos sugiere que varias subrutinas se emplean repetidamente. Como se discutió en el Capítulo 6, estos “módulos” conservados proporcionan un circuito que impulsa un tipo particular de resultado. El tipo de circuito necesario para el desarrollo difiere de los circuitos característicos de las redes reguladoras fisiológicas como el lac operon descrito anteriormente. El recuadro 7-3 ofrece ejemplos de un circuito particular utilizado en varias vías de desarrollo diferentes. COMPARTIR INFORMACIÓN Gran parte de la acumulación de complejidad biológica que se ha producido a lo largo de la historia de la vida en la Tierra ha surgido a través de transiciones importantes en las que entidades previamente no asociadas se unieron en un destino reproductivo común o desarrollaron asociaciones cooperativas mientras mantenían la independencia reproductiva (Maynard Smith y Szathmáry, 1995). Estas transiciones han tenido varios efectos, como economías de escala y especialización funcional. Por ejemplo, las simbiosis que se desarrollaron en dependencia celular completa ocurrieron al menos dos veces en la historia de la vida: en la adquisición de mitocondrias en células eucariotas y en la adquisición de cloroplastos en células de algas. Es significativo que las células bacterianas incorporadas que se convirtieron en mitocondrias y cloroplastos retuvieran parte de sus genomas y la capacidad de replicarlos cuando unieron fuerzas con sus huéspedes eucariotas. La célula adquirió un genoma completamente nuevo (o dos). Después de la incorporación y transferencia de muchos genes al genoma nuclear, la simbiosis entre el procariota engullido y el eucariota del huésped finalmente se convirtió en una asociación plena. La coordinación de la simbiosis que condujo a la asociación completa requirió que el genoma celular se comunicara con el genoma del orgánulo en formas que finalmente se fijaron permanentemente en la información de sus respectivos genomas. La evolución de las mitocondrias y los cloroplastos es una ilustración de cómo puede aumentar la complejidad de la información biológica. Estos orgánulos intracelulares requieren que las células tengan un nuevo nivel de comunicación y coordinación. El intercambio de información funciona de manera diferente al intercambio de recursos físicos en que no es un "juego de suma cero", como lo expresó el dramaturgo británico George Bernard Shaw:

126 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Recuadro 7-3 Comparación de redes reguladoras fisiológicas y del desarrollo A diferencia de muchas redes reguladoras fisiológicas que tienen el propósito de mover la célula a un nuevo estado en respuesta al entorno (ver Recuadro 7-2 ), las redes reguladoras del desarrollo se parecen más a subrutinas secuenciales de programas informáticos en el sentido de que impulsan el desarrollo de un conjunto definido de pasos o etapas sucesivas, a medida que el programa se ejecuta a lo largo del tiempo. Mientras que las propiedades dinámicas de las redes fisiológicas les permiten transitar de un estado a otro en respuesta a un entorno cambiante, las redes de desarrollo, mientras detectan y coordinan con el entorno celular, deben impulsar una serie regular e irreversible de transiciones a través de una serie definida de cambios. estados. Los programas de desarrollo, al menos en el embrión temprano, probablemente nunca se acercan a un estado estable. El programa se impulsa inexorablemente a sí mismo, desplegando cada etapa sucesiva de expresión genética en los tipos de células apropiados. ¿Cómo funcionan este tipo de programas? ¿Existe un tema o un repertorio de mecanismos? Se conocen varios ejemplos de mecanismos de red que impulsan los sistemas de desarrollo. Las interacciones reguladoras de un pequeño conjunto de genes que impulsan la transición de la red a la siguiente etapa son un tema recurrente. A pesar de la variedad de organismos y vías de diferenciación celular representadas en los cuatro ejemplos que se muestran aquí (dos del erizo de mar (ayd), uno del ratón (b) y uno de la mosca de la fruta (c)), todos tienen la siguientes propiedades en común: La entrada a la región reguladora de un gen (representada por la pequeña flecha negra) impulsa un bucle de retroalimentación positiva que activa uno o más genes en el módulo pequeño, y estabiliza el nuevo estado de esos genes aguas abajo, que en A su vez, regulan otros genes que cambiarán el estado de la célula. Una vez que estos circuitos se activan, cambian inexorablemente a un nuevo estado y no regresan a su estado inicial. Los recuadros pequeños de la figura indican en forma binaria simplificada (1 es "encendido", 0 es "apagado") el estado inicial del circuito (línea superior) y el estado final del circuito (línea inferior).

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 127 Circuitos de conducción hacia adelante en desarrollo a. Erizo de mar endomesodermo Krox Otx GataE 0 0 0 1 1 1 Krox Otx Endodermal Regulatory Genes Endodermal GataE Endomesodermal Genes Regulatory Genes b. Ratón rombómero rombencéfalo hoxa2 krox20 hoxb2 0 0 0 hoxa2 krox20 Rhombomere 3 Genes 1 1 1 hoxb2 c. Drosophila traqueal placode trh dfr 0 0 1 1 trh dfr Genes de señalización descendente Genes reguladores y descendente d. Erizo de mar ectodermo oral gsc repr dri gsc repr 0 1 0 1 0 1 genes del ectodermo arboral dri Genes reguladores del ectodermo oral FUENTE: Figura cortesía de David Galas, basada en información contenida en D Â avidson (2003). Recuadro 7-3

128 EL PAPEL DE LA TEORÍA EN EL AVANCE DE LA BIOLOGÍA DEL SIGLO XXI Si usted tiene una manzana y yo una manzana e intercambiamos manzanas, usted y yo todavía tendremos una manzana cada uno. Pero si ustedes tienen una idea y yo tengo una idea e intercambiamos estas ideas, cada uno de nosotros tendrá dos ideas. Claramente, habrá situaciones en las que compartir información devalúe esa información; por ejemplo, si una persona comparte la ubicación de una fuente limitada de alimentos con otros, es probable que el intercambio de información reduzca la cantidad de alimentos que la persona obtiene de ese lugar. . Pero devaluar la información compartiéndola no es una propiedad inherente de la información en sí, sino una consecuencia de la situación. En otros casos, compartir información no puede conllevar tales costos. Si una persona advierte a otros sobre el clima severo de mañana, la advertencia no afecta la capacidad de la persona para tomar las precauciones adecuadas. En algunos casos, compartir información puede incluso aumentar el valor de esa información. Por ejemplo, Marzluff et al. (1996) y Wright et al. (1998) proporcionaron pruebas contundentes de que los refugios comunales de los cuervos comunes (Corvus corax) sirven como "centros de información" en los que los individuos comparten información sobre la ubicación de las fuentes de alimento. En este caso, el intercambio de información tiene beneficios directos: los miembros de un gallinero comunal no pueden alimentarse a menos que lleguen a la fuente de alimentos en cantidades lo suficientemente grandes como para desplazar a los poseedores del territorio local. Por lo tanto, el conocimiento de la ubicación de una fuente de alimento es inútil a menos que se comparta. Además, los costos de compartir la información son pequeños o inexistentes. Estos recursos alimenticios, típicamente cadáveres grandes, a menudo son tan grandes que un grupo de cuervos no puede consumir uno por completo antes de que el recurso se pierda por nevadas, carroñeros de mamíferos u otras causas. INFORMACIÓN Y EVOLUCIÓN El proceso evolutivo en sí mismo puede conceptualizarse como un proceso de adquisición de información. Los tipos de información que están representados en el genoma y las formas en que el organismo vivo extrae esta información del genoma se discutieron anteriormente. Pero, ¿cómo llegó esta información inicialmente al genoma? La respuesta es que la información se acumula en el genoma como resultado del proceso de evolución por selección natural. La mutación en sus muchas formas proporciona una amplia gama de variación, pero por sí sola, la mutación no agrega necesariamente más información con respecto al medio ambiente (es decir, no aumenta la información mutua de Shannon entre el genoma y el medio ambiente). Por ejemplo, una mutación "silenciosa" no cambia inmediatamente el fenotipo de un organismo. La información adicional llega como resultado del proceso de clasificación de la selección natural. La selección preserva aquellos genotipos que operan de manera más efectiva en el medio ambiente y descarta aquellos genotipos que son menos efectivos.

¿CUÁL ES LA INFORMACIÓN QUE DEFINE Y MANTIENE LA VIDA? 129 Se puede cuantificar esta relación Haldane (1957) y Kimura (1961) establecieron que la información puede acumularse en una población sexual a una tasa no superior a - log (1) bits por generación, donde s es la carga selectiva (básicamente, la fracción de la población perdida por la selección). Los análisis recientes de la evolución en entornos fluctuantes (Bergstrom y Lachmann, 2004 Kussell y Leibler, 2005) extraen aún más la relación entre las medidas teóricas de la información genómica y el concepto de aptitud darwiniana. Estos análisis insinúan que las dos formas diferentes de medir la información, el marco de Shannon y el marco de la teoría de la decisión, podrían estar estrechamente relacionadas en circunstancias especiales. Kelly (1956) caracterizó una de esas circunstancias y estableció una relación entre el valor de la información secundaria para un jugador y la tasa de entropía del proceso que se está apostando. La evolución por selección natural parece proporcionar otro ejemplo. Sin embargo, es necesario seguir trabajando para lograr una comprensión profunda de estas relaciones. CONCLUSIONES Un intento de caracterizar los sistemas vivos citando sólo dos propiedades esenciales probablemente incluiría, primero, que están termodinámicamente lejos del equilibrio, y segundo, que almacenan, acumulan y transmiten grandes cantidades de información. Si bien todavía existe una lucha para dar forma a los conceptos de manera rigurosa y útil para la biología, los biólogos pueden reconocer que la información es de hecho una forma valiosa de describir muchos procesos de la vida. Hay muchas disciplinas no biológicas, incluidas las matemáticas, la informática y la estadística, que tienen problemas similares a los que enfrentan los biólogos. El problema de comprender la información biológica y desarrollar ideas teóricas fructíferas y herramientas útiles probablemente se verá favorecido por esta rica veta de ideas y métodos.


7. Conclusión

El primer dominio que podría beneficiarse de la filosofía de la información es, por supuesto, la filosofía misma. El concepto de información tiene un impacto potencial en casi todas las disciplinas filosóficas principales, que van desde la lógica, la teoría del conocimiento, la ontología e incluso la ética y la estética (ver la introducción más arriba). La filosofía de la ciencia y la filosofía de la información, con su interés en el problema de la inducción y la formación de teorías, probablemente ambas podrían beneficiarse de una cooperación más estrecha (ver 4.1 Popper: Información como grado de falsabilidad). El concepto de información juega un papel importante en la historia de la filosofía que no se comprende completamente (ver 2. Historia del término y el concepto de información).

Dado que la información se ha convertido en un tema central en casi todas las ciencias y humanidades, este desarrollo también impactará la reflexión filosófica en estas áreas. Los arqueólogos, lingüistas, físicos, astrónomos, todos tratan con información. Lo primero que tiene que hacer un científico antes de poder formular una teoría es recopilar información. Las posibilidades de aplicación son abundantes.La minería de datos y el manejo de conjuntos de datos extremadamente grandes parecen ser esenciales para casi todas las disciplinas empíricas del siglo XXI.

En biología hemos descubierto que la información es esencial para la organización de la vida misma y para la propagación de organismos complejos (ver entrada sobre información biológica). Uno de los principales problemas es que los modelos actuales no explican bien la complejidad de la vida. Valiant ha iniciado un programa de investigación que estudia la evolución como una forma de aprendizaje computacional (Valiant 2009) para explicar esta discrepancia. Aaronson (2013) ha defendido explícitamente una cooperación más estrecha entre la teoría de la complejidad y la filosofía.

Hasta hace poco la opinión generalizada era que las distintas nociones de información estaban más o menos aisladas, pero en los últimos años se ha avanzado considerablemente en la comprensión de la relación entre estos conceptos. Cover y Thomas (2006), por ejemplo, ven una combinación perfecta entre la complejidad de Kolmogorov y la información de Shannon. Gr & uumlnwald y Vit & aacutenyi (2008) han hecho observaciones similares. También se han estudiado las conexiones que existen entre la teoría de la termodinámica y la teoría de la información (Bais & amp Farmer 2008 Harremo & eumls & amp Tops & oslashe 2008) y está claro que las conexiones entre la física y la teoría de la información son mucho más elaboradas que un simple ad hoc La similitud entre el tratamiento formal de la entropía y la información sugiere (Gell-Mann & amp Lloyd 2003 Verlinde (2011, 2017). En este momento, la computación cuántica no está desarrollada hasta un punto en el que sea efectivamente más poderosa que la computación clásica, pero este umbral podría ser En los próximos años, desde el punto de vista de la filosofía, muchos problemas conceptuales de la física cuántica y la teoría de la información parecen fusionarse en un campo de cuestiones relacionadas:

  • ¿Cuál es la relación entre información y computación?
  • ¿Es la computación en el mundo real fundamentalmente no determinista?
  • ¿Cuál es la relación entre la manipulación de símbolos a escala macroscópica y el mundo de la física cuántica?
  • ¿Qué es un buen modelo de computación cuántica y cómo controlamos su poder?
  • ¿Hay información más allá del mundo de los cuantos?

La noción de información se ha vuelto central tanto en nuestra sociedad como en las ciencias. La tecnología de la información juega un papel fundamental en la forma en que organizamos nuestras vidas. También se ha convertido en una categoría básica en las ciencias y las humanidades. La filosofía de la información, tanto como disciplina histórica como sistemática, ofrece una nueva perspectiva sobre viejos problemas filosóficos y también sugiere nuevos dominios de investigación.


Ver el vídeo: DOGMA DE LA BIOLOGIA. REPLICACION DEL ADN Semana 7 - CEPREUNALM (Julio 2022).


Comentarios:

  1. Westbrook

    la frase de Incomparable, me gusta mucho :)

  2. Vuk

    Gracias por elegir ayuda en este asunto. No sabía eso.

  3. Ardell

    Algo en mí no hay mensajes personales, errores lo que eso

  4. Nehemiah

    Absolutamente no estoy de acuerdo

  5. Coireail

    Lo siento, pero creo que estás equivocado. Estoy seguro. Puedo probarlo.



Escribe un mensaje