Archive for abril 2010

INGENIERÍA GENÉTICA

Existen herramientas para la manipulación genética, estas son las enzimas y los vehículos moleculares de clonación de ADN, que son mecanismos de la celula involucrados en la utilización de la información genética para sintetizar las proteinas (estos mecanismos son el ADN y el ARN). Existen también los oligonucleótidos, que son fragmentos pequeños de ADN, que modifican, editan y detectan de manera muy fina y específica el ADN. La polimerasa o PCR es otra herramienta que permite la amplificación de cualquier fragmento de ADN, cataliza la síntesis de las nuevas cadenas del ADN, usando como molde o templado una de las cadenas originales, generando varios billones de copias idénticas a este fragmento en pocas horas.

NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 5)

CARACTERISTICAS La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

Una posible lista de ciencias involucradas sería la siguiente:

Química (Moleculares y computacional)
Bioquímica
Biología molecular
Física
Electrónica
Informática
Matemáticas

Ver Video Parte 5

NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 4)

Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.

Ver Video Parte 4

NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 3)

Un nanómetro es la mil millonésima parte de un metro (10^(-9) metros). Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala.

Ver Video Parte 3

NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 2)

nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.

La nanotecnología promete soluciones nuevas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad.

Ver Video  Parte 2

NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 1)

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).

Ver Video  Parte 1:


ROBOTS Increibles. (Video Parte 5)


En algún dia no tan lejano los Robots Serán capaces de viajar a los confines del universo. Los robots Guiarán las exploraciones en las profundidades del espacio. Los robots serán la pesadilla del hombre o los esclavos del trabajo .

Ver Video Parte 2 en español
VER VIDEO .....

ROBOTS Increibles. (Video Parte 4)

En algún dia no tan lejano los Robots Serán capaces de viajar a los confines del universo. Los robots Guiarán las exploraciones en las profundidades del espacio. Los robots serán la pesadilla del hombre o los esclavos del trabajo .

Ver Video Parte 2 en español
VER VIDEO

ROBOTS Increibles. (Video Parte 3)

En algún dia no tan lejano los Robots Serán capaces de viajar a los confines del universo. Los robots Guiarán las exploraciones en las profundidades del espacio. Los robots serán la pesadilla del hombre o los esclavos del trabajo


Ver Video Parte 2 en español
Ver Video

ROBOTS Increibles. (Video Parte 2)

En algún dia no tan lejano los Robots Serán capaces de viajar a los confines del universo. Los robots Guiarán las exploraciones en las profundidades del espacio. Los robots serán la pesadilla del hombre o los esclavos del trabajo . 

Ver Video Parte 2 en español
Ver Video ........

ROBOTS Increibles. (Video Parte 1)

En algún dia no tan lejano los Robots Serán capaces de viajar a los confines del universo.

Los robots Guiarán las exploraciones en las profundidades del espacio.

Los robots serán la pesadilla del hombre o los esclavos del trabajo .


Ver Video Parte 1 en español

INTELIGENCIA ARTIFICIUAL Y ROBÓTICA (Video Parte 2)

¿Ciencia Ficción o Realidad Científica?. ¿Podrán las computadoras emular al pensamiento humano?. En la siguiente nota podemos enterarnos un poco más de que se trata este apasionante tema de la I.A.



REDES NEURONALES - Las redes neuronales son dispositivos inspirados en la funcionalidad de las neuronas biológicas, aplicados al reconocimiento de patrones que las convierten aptas para modelar y efectuar predicciones en sistemas muy complejos.
- Es un conjunto de técnicas matemáticas para modelar las conexiones / relaciones entre un conjunto de datos.
- Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la IA simbólica o tradicional. La IA simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la 'máquina' realice algunas operaciones básicas entre ellos.
- Una Red Neuronal: el Perceptrón unicapa
- Es  un conjunto de neuronas no unidas entre sí, de manera que cada una de las entradas del sistema se conectan a cada neurona, produciendo cada una de ellas su salida individual.
- Existen tres métodos de aprendizaje para un Perceptrón:
            Aprendizaje supervisado: se presentan al Perceptrón unas entradas con las correspondientes salidas que se quiere que sean aprendidas.
            Aprendizaje no supervisado: solo se presentan al Perceptrón las entradas y, para esas entradas, la red debe dar una salida parecida.
            Aprendizaje por refuerzo: se combinan los dos anteriores, y cada cierto tiempo se presenta a la red una valoración global de como lo está haciendo.
- Podría parecer que el Perceptrón tiene una potencia ilimitada para aprender, pero Minsky y Paper pusieron graves deficiencias del Perceptrón en su libro “Perceptrons”. Según ellos el Perceptrón unicapa era incapaz de aprender las funciones que no fuesen linealmente separables.
- Las redes neuronales todavía se han de desarrollar mucho. Aún se debe estudiar para que sirven realmente, conocer en que tareas pueden resultar realmente útiles, ya que por ejemplo es difícil saber cuánto tiempo necesita una red para aprender cierta tarea, cuántas neuronas necesitamos como mínimo para realizar cierta tarea, etc...
- En la robótica, las redes neuronales también parecen prometer mucho, sobre todo en su sensorización.

ROBÓTICA 

- Son unas máquinas controladas por ordenador y programada para moverse, manipular objetos y realzar trabajos a la vez que interacciona con su entorno. Los robots son capaces de realizar tareas repetitivas de forma más rápida, barata y precisa que los seres humanos.
- El diseño de un manipulador robótico se inspira en el brazo humano. Las pinzas están diseñadas para imitar la función y estructura de la mano humana. Muchos robots están equipados con pinzas especializadas para agarrar dispositivos concretos.
- Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. Una computadora calcula los ángulos de articulación necesarios para llevar la pinza a la posición deseada.
- En 1995 funcionaban unos 700.000 robots en el mundo. Más de 500.000 se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o desagradables para los humanos. En los laboratorios médicos, los robots manejan materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros casos, los robots se emplean en tareas repetitivas en las que el rendimiento de una persona podría disminuir con el tiempo. Los robots pueden realizar estas operaciones repetitivas de alta precisión durante 24 horas al día.
- Uno de los principales usuarios de robots es la industria del automóvil. La empresa General Motors utiliza aproximadamente 16.000 robots para trabajos como soldadura, pintura, carga de máquinas, transferencia de piezas y montaje. El montaje industrial exige una mayor precisión que la soldadura o la pintura y emplea sistemas de sensores de bajo costo y computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de aparatos electrónicos, para montar microchips.
- Se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y ciertos robots especializados de altísima precisión pueden ayudar en operaciones quirúrgicas delicadas en los ojos. La investigación en telecirugía emplea robots controlados de forma remota por cirujanos expertos; estos robots podrían algún día efectuar operaciones en campos de batalla distantes.
- Los robots crean productos manufacturados de mayor calidad y menor costo. Sin embargo, también pueden provocar la pérdida de empleos, especialmente en cadenas de montaje industriales.
- Las máquinas automatizadas ayudarán cada vez más a los humanos en la fabricación de nuevos productos, el mantenimiento de las infraestructuras y el cuidado de hogares y empresas. Los robots podrán fabricar nuevas autopistas, construir estructuras para edificios, limpiar corrientes subterráneas o cortar el césped.
- Puede que los cambios más espectaculares en los robots del futuro provengan de su capacidad de razonamiento cada vez mayor. El campo de la inteligencia artificial está pasando rápidamente de los laboratorios universitarios a la aplicación práctica en la industria, y se están desarrollando máquinas capaces de realizar tareas cognitivas como la planificación estratégica o el aprendizaje por experiencia. El diagnóstico de fallos en aviones o satélites, el mando en un campo de batalla o el control de grandes fábricas correrán cada vez más a cargo de ordenadores inteligentes.


Ver Video Parte 2

INTELIGENCIA ARTIFICIAL Y ROBÓTICA (Video Parte 1)

¿Ciencia Ficción o Realidad Científica?. ¿Podrán las computadoras emular al pensamiento humano?. En la siguiente nota podemos enterarnos un poco más de que se trata este apasionante tema de la I.A.

LA I.A. UN POCO DE HISTORIA

  • 1950. El nacimiento real de la IA se produjo en este año, cuando Norbet Wiener desarrolló el principio de la retroalimentación. Esta técnica consiste, por ejemplo, en la tecnología del termostato, comparar la temperatura actual del entorno con la deseada y, según los resultados aumentarla o disminuirla.
  • 1955. Newell y Simon desarrollan la Teoría de la lógica. Este desarrollo permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y nudos, seleccionando únicamente las ramas que más parecían acercarse ala solución correcta del problema.
  • 1956. En una conferencia en Vermont, John McCarthy propone el término “Inteligencia Artificial” para denominar el estudio del tema. Después se prepara el terreno par el futuro en la investigación de la IA.
  • 1957. Aparece la primera versión de “The General Problem Solver” (GPS), un programa capaz de solucionar problemas de sentido común. El GPS utilizaba la teoría de la retroalimentación de Wiener.
  • 1958. McCarthy anuncia su nuevo desarrollo el lenguaje LISP (LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la IA.
  • 1963. El MIT recibe una subvención de 2,2 millones de dólares del gobierno de los Estados Unidos en concepto de investigación en el campo de la IA.
  • 1970. Se produce el advenimiento de los Sistemas Expertos. Los Sistemas Expertos se han utilizado para ayudar a los médicos a diagnosticar enfermedades e informar a los mineros a encontrar vetas de mineral. Al mismo tiempo Davir Marr propone nuevas teorías sobre la capacidad de reconocimiento visual de las diferentes máquinas.
  • 1972. Aparece el lenguaje PROLOGUE basado en las teorías de Minsky.
  • 1980. Las ventas de hardware y software relacionados con la IA se contabilizan por 425 millones de dólares sólo en 1986. Compañías como DuPont, General Motors, y Boeing utilizan sistemas expertos a principios de la década de los 80 y éstos sistemas expertos se convertirán en un standard a finales de la misma.
  • En los 90. La IA se utiliza de forma efectiva en la Guerra del Golfo sobre sistemas de misiles visores para los soldados y otros avances, y al mismo tiempo, invade nuestros hogares y vida cotidiana en muchos más lugares.   
LA HEURÍSTICA La heurística es el análisis y la extrapolación de datos basados en experiencias pasadas y en sus consecuencias, este apartado es de una importancia vital para la IA interna en los juegos de ordenador.
            Por ejemplo, un enemigo podrá intentar una aproximación, grabando los resultados de esa aproximación en su memoria. Si fracasa en su intento de eliminar al jugador, la próxima vez que intente algo parecido sabrá que, bajo las mismas circunstancias, ha fracasado una vez e intentará otra ruta de aproximación al jugador. Si por el contrario  tiene éxito, aún podrá obtener un aprendizaje de sus actos,  y extrayendo aquellas acciones que más han contribuido a la consecución del fin, que es eliminar al jugador; así la próxima vez que el ordenador se encuentre en semejante situación. La heurística, por tanto, permite tener enemigos con memoria.

LOS SISTEMAS EXPERTOS Un sistema experto puede definirse como un sistema basado en los conocimientos que imita el pensamiento de un experto para resolver problemas de un terreno particular de aplicación.
Una de las características principales de los sistemas expertos es que están basados en reglas, es decir, contienen conocimientos predefinidos que se utilizan para tomar todas las decisiones.
Un sistema experto genérico consta de dos módulos principales:
                       La base de conocimientos del sistema experto con respecto a un tema específico para el que se diseña el sistema. Este conocimiento se codifica según una notación específica que incluye reglas, predicados, redes semánticas y objetos.

El motor de inferencia que es el que combina los hechos y las preguntas particulares, utilizando la base de conocimiento, seleccionando los datos y pasos apropiados para presentar los resultados.

Historia de los sistemas expertos:
            1965 DENDRAL, el primer sistema experto
- En 1965 Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue éste estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego “árbol”.
- Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, esta era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
- La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.

            1972 MYCIN
- MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características de la persona, tales como el peso corporal de este. Después del reconocido éxito que tuvo.

            1973 TIERESIAS
- El cometido de este sistema experto  era  el de servir de intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su base de datos. El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso lo que se necesita.

1979 XCON, primer programa que sale del laboratorio
                        - Su usuario fue la Digital Equipament Corporation (DEC).
                        - El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
- En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto  se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año  funcionó con resultados positivos en la DEC.
                        - En 1980 se instauró totalmente en DEC y en 1984 el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.

80-8 La revolución de los Sistemas Expertos
                        - En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en Disco” para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.
                        - Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las “máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas de desarrollo de sistemas expertos”.

1987 XCON empieza a no ser rentable
                        - Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA.
1987 El fin del LISP
- En 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje “C” lo que acabó con el LISP.

Ver Video Parte 1

Inteligencia Artificial y Robotica

CIENCIA Y TYECNOLOGIA

Inteligencia artificial (IA) es la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.

Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).

Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.

Existen distintos tipos de conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.

El Futuro de la Ciencia


1. Introducción En la última década, se han organizado varios simposios internacionales tratando de responder a una misma inquietud que parece se ha ido instalando, hasta producir ansiedad, en la mente de muchos pensadores y científicos. Estos encuentros científicos han tratado de responder a la pregunta: ¿estamos ante el fin de la ciencia?
Con esta finalidad, se convocó un simposio de Premios Nobel, en 1989, en el College Gustavus Adolphus de Minnesota, bajo el título ¿El fin de la Ciencia? Al año siguiente, el mismo Instituto convocó otra Conferencia Nobel titulada: "Caos: la Nueva Ciencia". Ese mismo año, se celebró, en Buenos Aires, otro Encuentro Internacional, cuya primera Conferencia, del Premio Nobel Ilya Prigogine, se titulaba también ¿El fin de la Ciencia? Posteriormente, en la primavera de 1994, se realizó otro encuentro de pensadores, matemáticos, físicos, biólogos, economistas y filósofos, en el Instituto de Santa Fe, California, titulado "Los límites del conocimiento científico". Y, más recientemente, mayo de 1999, también en nuestro país, en la Universidad del Zulia, Maracaibo, tuvo lugar un simposio convocado bajo el mismo título ¿El fin de la Ciencia?, donde el autor de este artículo participó con una conferencia plenaria. Diferentes encuentros más se han realizado en otros lugares con fines similares.
Las grandes preguntas que guían estos encuentros giran entorno a las raíces de la ciencia y del conocimiento humano en general, es decir, son de naturaleza filosófica: ¿qué es la verdad?, ¿qué significa conocer las cosas?, ¿en qué consiste exactamente la verificación y validación?, ¿existe la libre determinación?, ¿cómo se originó la vida?, ¿qué sentido tiene el universo?, ¿somos inevitables o estamos aquí de pura casualidad?, ¿es cierto que toda la realidad procede de los retorcimientos de bucles de energía en un hiperespacio de diez dimensiones?, etc. Se trata, en fin de cuentas, de desnudar las antinomias, las paradojas, las aporías, las contradicciones, las parcialidades y las insuficiencias de nuestro conocimiento considerado como el más seguro por ser "científico".
No es de extrañar, entonces, que muchos de los participantes, especialmente los provenientes de la práctica empírica de una ciencia de corte clásico, se sientan desconcertados, desorientados y confundidos, al desconocer por completo los autores más iluminadores y competentes en la solución de estos problemas epistemológicos y gnoseológicos, como los filósofos griegos, Kant, Wittgenstein, Gödel y otros. Efectivamente, no somos nosotros los primeros que descubrimos y nos enfrentamos con estos problemas; a lo largo de la historia del pensamiento humano, mentes privilegiadas los enfrentaron y le dieron su solución. Kant, por ejemplo, y los mismos griegos, se anticiparon, al hablar de las antinomias, a casi todos los problemas planteados en estos simposios.
Esta situación de desconocimiento ha producido un hecho lastimoso: los científicos esperan y confían que la verdad sea alcanzable, y que no sólo sea un ideal, o una asíntota, a la que uno se está aproximando eternamente; pero en las diatribas que se generan, y en las publicaciones respectivas, al enfocar los problemas desde ópticas a veces muy contrapuestas y antagónicas, se insultan, se ridiculizan y se tildan unos a otros con epítetos muy descalificadores.
El objetivo de este artículo es dar una panorámica de la problemática tratada en estos simposios, enfatizar las dificultades de sus nudos gordianos y ofrecer un aporte de solución a algunos de ellos. El área explorada se apoya en la participación a tres de estos simposios, en la bibliografía que se cita, en la que se reseña al final y en los números de los últimos años de las revistas Science, Scientific American, Nature, Physics Today, New York Times Magazine y alguna otra.

2. El concepto de "Ciencia"

Cuando se examina a fondo el conocer humano, ordinariamente se entiende por "ciencia" no tanto la aplicada, es decir, la tecnología, sino la ciencia en su vertiente más pura y grandiosa, a saber, ese deseo profundo del ser humano de comprender el universo y el lugar que ocupa en él.
Ambas, la ciencia pura y la aplicada, han revelado disponer de un gran poder para el servicio de la humanidad: han aliviado el trabajo pesado, han disminuido las enfermedades y la pobreza, han alargado la vida y la han hecho mucho más agradable y placentera.
Pero, ¿estamos, como muchos aseveran, al final de la ciencia? En 1894, Albert Michelson dijo en un discurso que "los grandes principios que sustentan a la ciencia están ya firmemente establecidos y que los avances ulteriores habrá que buscarlos principalmente en la rigurosa aplicación de estos principios" y que "un físico eminente (aludiendo a Lord Kelvin) ha observado que las verdades futuras de la ciencia física habrá que buscarlas en el sexto lugar de los decimales" (Physics Today, Abril, 1968, p. 9).
Para esa fecha, nadie podía imaginar lo que nos tenía reservado el futuro: la televisión, los vuelos a la Luna y los supersónicos, las estaciones espaciales, las armas nucleares, la informática, la ingeniería genética, etc. Por eso, quizá sea más fácil aceptar lo que dicen algunos, como John Wheeler: "aún vivimos en la infancia de la humanidad"; "a medida que aumenta la isla de nuestros conocimientos, aumenta también el litoral de nuestra ignorancia" (Horgan, 1998, p. 113).
Otros científicos, de gran renombre, como Steven Weinberg y Edward Witten, asistentes a estos simposios, profesan una fe profunda en el poder de la física para alcanzar una verdad absoluta; pero están conscientes de que su fe es sólo eso: una fe (ibíd. p. 101). Mucho tiempo antes, sin embargo, Erwin Schrödinger, Premio Nobel por su descubrimiento de la ecuación fundamental de la mecánica cuántica (base de la física moderna), afirmó que la ciencia actual nos ha conducido por un callejón sin salida y que "la actitud científica ha de ser reconstruida, que la ciencia ha de rehacerse de nuevo" (1967). Y esto mismo piensan muchos de los participantes en los simposios mencionados.
A principios del siglo XX, en 1918, Spengler publicó una obra monumental, La Decadencia de Occidente, en la que expresa que la ciencia procede de manera cíclica, con períodos románticos de investigación de la naturaleza y el invento de nuevas teorías, que dan paso a otros períodos de consolidación durante los cuales el saber científico se osifica. A medida que los científicos se vuelven más arrogantes y menos tolerantes con otros sistemas de creencias, la sociedad se rebela contra la ciencia. Spengler pronosticaba, así, un declinar de la ciencia hacia fines del siglo.
En 1969, publicó Günther Stent, presidente del Departamento de Neurobiología de la Academia Nacional de Ciencias de EE.UU., una obra significativa e impactante en que sostenía que la ciencia –al igual que la tecnología, las artes y todas las disciplinas progresivas y acumulativas– estaba tocando a su fin. "Creo –dice– que la vertiginosa velocidad a la que se está moviendo el progreso hace que parezca más probable que llegue pronto a su fin, cosa que se podría producir mientras vivamos nosotros, o dentro de un par de generaciones a más tardar" (p. 94). Y pone ejemplos de lo que está sucediendo en el terreno de la geografía, la química, la anatomía humana y la biología. De esta manera, afirma Stent, cuanto más deprisa avance la ciencia más deprisa alcanzará sus límites definitivos e inevitables.
Es llamativo el hecho de que las predicciones de que la ciencia se está acercando a su culminación, han provenido, en su mayor parte, no de antirracionalistas, sino de científicos como Steven Weinberg, Richard Dawkins y Francis Crick, que creen que la ciencia es la vía suprema hacia la verdad.
Es más, señalan que la ciencia propiamente tal va imponiendo límites a su propio poder a medida que avanza. La teoría de la relatividad especial de Einstein, por ejemplo, no permite la transmisión de materia, y ni siquiera de información, a velocidades superiores a la de la luz; la mecánica cuántica establece que nuestro conocimiento del microcosmos ha de ser siempre incierto; la teoría del caos confirma que, inclusive sin la indeterminación cuántica, muchos fenómenos son imposibles de predecir; el teorema de la incompletitud de Kurt Gödel excluye la posibilidad de construir una descripción matemática de la realidad que sea completa y consistente; y la biología evolucionista no deja de recordarnos que somos unos animales destinados por la selección animal no al descubrimiento de profundas verdades de la naturaleza, sino a la cría (Horgan, 1998).
Noam Chomsky, en cambio, famoso lingüista y uno de los críticos más brillantes de la sociobiología y de otros enfoques darwinianos de la ciencia social, dice que "los científicos tienen que mostrar todavía –y lo mostrarán casi con toda seguridad– cómo las células fertilizadas se convierten en organismos completos y cómo el cerebro humano genera el lenguaje". Por todo ello, piensa este autor que "aún queda mucha ciencia por hacer, mucha física, mucha biología, mucha química" (ibíd., pp. 199-200). Igualmente, rechaza la posibilidad de que los físicos, y otros científicos en general, puedan alcanzar una teoría del todo; a lo sumo, dice, los físicos sólo podrán crear una "teoría de lo que saben formular". En efecto, ellos no podrán estar nunca seguros de haber encontrado una teoría verdaderamente definitiva de la naturaleza.
Por su parte, John Eccles, premio Nobel por sus estudios sobre la transmisión neuronal, y coautor con Popper de la famosa obra El yo y su cerebro (1980), a la pregunta sobre el posible fin de la ciencia, responde: "Yo no quiero que se acabe, es importantísimo que siga existiendo…; tendremos que seguir descubriendo, descubriendo y descubriendo y… pensando; no podemos pretender tener la última palabra sobre nada" (ibíd., p. 224).

3. La posible unificación de la ciencia

Otros científicos modernos ven el fin de la ciencia al creer en una teoría final sin alternativas posibles, es decir, reduciendo todos los fenómenos de la naturaleza a un único fenómeno o teoría, "el secreto del todo", como fue, por ejemplo, la teoría general de la relatividad o el modelo estándar de la física de partículas, o como pudiera ser la teoría de las supercuerdas. Así, Stephen Hawking (de la Universidad de Cambridge, Inglaterra), en 1980, al ocupar la cátedra que Newton había ocupado unos trescientos años antes, "vaticinó" que la física podría alcanzar pronto una teoría completa, unificada, de la naturaleza, provocando, así, su propia defunción. Algunos científicos no hablan de una teoría, pero sí de un número finito de leyes universales que el hombre puede aprehender y dirigir racionalmente para su propio beneficio.
El problema que plantea la teoría unificada, aun cuando se trate de una teoría realmente "bonita" como la de la supercuerda, es que no existe manera de "verificarla", lo cual indica que no se está siguiendo realmente el método científico, haciendo predicciones y comprobándolas luego, sino aplicando y creyendo en una mera consistencia matemática. Pero "los modelos matemáticos, como muy bien dijo Einstein, en la medida en que son ciertos no se refieren a la realidad". Por esto, si no se aportan pruebas concluyentes, nos estaremos moviendo, más que en el ámbito físico, en el filosófico, por no citar a otros insignes científicos, como Freeman Dyson (1988), que simplemente afirman que se trata de una fantasía poética. Como le dijo Niels Bohr a Heisenberg, "cuando se trata de átomos, el lenguaje sólo se puede emplear como en poesía; al poeta le interesa no tanto la descripción de hechos cuanto la creación de imágenes" (Bronowski, 1979, p. 340).
La respuesta plena a nuestras interrogantes sobre el universo no se reduce a una mera teoría de la física, es decir, no se trata de una simple manera de organizar los datos y predecir los acontecimientos; en realidad la solución del enigma del universo está más ligada con el "secreto de la vida". Pero la vida podría haber aparecido por una convergencia monstruosa de acontecimientos improbables y hasta inimaginables. Francis Crick (1981) dice que "el origen de la vida se nos antoja casi un milagro, dadas las innumerables condiciones que debieron darse para que ésta apareciera" (p. 88). Según los cálculos de probabilidad, la generación espontánea de la vida habría tenido menos probabilidad de darse que el ensamblaje de un jet 747 realizado por un tornado a su paso por un depósito de chatarra. Por esto, muchos científicos sostienen que el mero accidente no pudo haber creado la vida por sí solo; que nuestro cosmos debió contener alguna tendencia fundamental generadora de orden, y, por ello, la teoría darwinista, si no es errónea, por lo menos es incompleta (Kauffman, 1993, 1995).
Sin embargo, toda teoría unificadora –como idea básica y general– constituye el propio fin de la ciencia. La gran mayoría de los hombres de ciencia de cada disciplina fueron unificadores. Newton y Einstein fueron los supremos unificadores de la física: Newton unificó la gravitación terrestre y la gravitación celeste en 1680; Faraday y Ampère unificaron la electricidad y el magnetismo en 1830; Maxwell unificó éstos con la radiación en 1878, y Einstein unificó todos los anteriores, a través de la teoría general de la relatividad, en 1916. Los grandes triunfos de la física fueron triunfos de unificación. Así mismo, Darwin, con la teoría evolucionista, unificó en gran medida la biología, y Fred Hoyle, cuando acuñó el término big bang y su correspondiente teoría, proporcionó cohesión, sentido, significado y una narrativa unificadora a la astronomía.
También Popper señala que la aspiración propia de un metafísico es reunir todos los aspectos verdaderos del mundo (y no solamente los científicos) en una imagen unificadora que le ilumine a él y a los demás y que pueda un día convertirse en parte de una imagen aún más amplia, una imagen mejor, más verdadera (1985, p. 222).
En cuanto al "secreto de la vida", aunque la teoría de la evolución de Darwin es una idea científica que ha demostrado su capacidad para superar grandes desafíos, esa evolución –de acuerdo a Stephen Gould (1989), del Museo Americano de Historia Natural– no demuestra ninguna dirección coherente, ni tampoco son inevitables ninguno de sus productos, como, por ejemplo, el homo sapiens, pues, si repasamos la "película de la vida" un millón de veces, ese simio peculiar con cerebro mayor de lo normal podría no haber existido nunca.
De este modo, tanto el origen de la vida como su evolución en el tiempo quedan sumidas en un gran misterio. Y este misterio, y su posible respuesta, cambiarían en gran medida si se aclarara algún día la posibilidad de que exista vida –o de que haya existido vida alguna vez– más allá de los linderos de nuestro pequeño planeta. Esto constituiría una gran sorpresa, y gran parte de nuestra ciencia y todo el pensamiento humano volvería a nacer.

4. La tendencia reduccionista

Francis Crick, en su obra La hipótesis asombrosa (1994), comienza el libro diciendo: "La hipótesis asombrosa es que tú, tus alegrías y tus penas, tus recuerdos y tus ambiciones, tu sentido de la identidad y voluntad personales, no son en el fondo más que la conducta de unas células nerviosas y de sus moléculas asociadas. Como habría podido decir la Alicia de Lewis Caroll: «No somos más que un montón de neuronas»". Como le ha observado más de uno, el título de la obra hubiera estado más acertado si la hubiera llamado La hipótesis deprimente.
La tendencia "científica" reduccionista exige que las ciencias sociales, la antropología, la sociología, la psicología, la economía, etc., se expliquen con bases y principios sociobiológicos, y éstos, a su vez, sometiéndolos al paradigma darwiniano, el cual, por su parte, deberá entenderse siguiendo principios netamente físicos. Así, ya se trate de la guerra, la xenofobia, el dominio machista o, incluso, los brotes de altruismo o el misterio de la conciencia, todo deberá entenderse con base en las leyes corrientes de la física. Y estas leyes, en definitiva, se entenderán de acuerdo a lo que se conozca de la física de partículas, es decir, del comportamiento de los protones, neutrones, electrones, etc. y, ahora, de los quarks, los quasares y, sobre todo, las supercuerdas. Recordemos que estas últimas entidades físicas son puras construcciones lógico-matemáticas, es decir, no tienen un significado especial aparte de su definición matemática.
La teoría de las supercuerdas (que algunos ven como la teoría fundamental y definitiva de la física) sostiene que, así como las vibraciones de las cuerdas de un violín dan origen a notas diferentes, así las vibraciones de diminutos bucles de energía, las supercuerdas, generarían todas las fuerzas y partículas del reino físico. Pero la teoría de las supercuerdas no es comprobable y, por lo tanto, no pertenece realmente a la ciencia física. Es más, la mayoría de los físicos difieren en definir qué es exactamente una supercuerda; pareciera que es algo así como una protoestofa matemática que genera materia, energía, espacio y tiempo, pero que no se corresponde con nada de nuestro mundo. El principal argumento a su favor parece que reside en su notable elegancia y belleza, y en una consistencia meramente matemática. En otras palabras, se dice que la teoría es demasiado bella para ser errónea. Pero lo que se pregunta es si todo (las diferentes disciplinas) se pueden reducir a eso, es más, si eso corresponde a algo.
El problema no reside en usar modelos para representar la realidad, pues los físicos expertos saben que sus ecuaciones son, en realidad, una mentira. También Picasso decía que "el arte es una mentira que nos ayuda a ver la verdad". El error estaría en pensar que el modelo va más allá de sí mismo y representa, o equivale a, la realidad. Por esto, si tomamos demasiado en serio los modelos, más que recibir una ayuda, corremos el riesgo de quedar atrapados por ellos.
Cuando a Einstein le preguntaron si la ciencia se había agotado ya, contestó lo siguiente: "Tal vez, pero ¿de qué sirve describir una sinfonía de Beethoven en términos de ondas de aire a presión?" Al parecer, Einstein estaba refiriéndose al hecho de que la física por sí sola no podía hacerse preguntas relacionadas con el valor, el significado y otros fenómenos apreciativos. ¿De qué manera la sustitución de neuronas por ondas de aire a presión o átomos o cualquier fenómeno físico hacen justicia a la magia y el misterio de la mente? (Horgan, 1998, p. 222). No podemos caer en lo que Niels Bohr consideró como el lamentable estado de mucha ciencia, que consiste en reducir todos los misterios de la vida a meras trivialidades.
Desde el siglo pasado, muchos autores de orientación humanista en psicología, han repetido el dicho de que "aprendemos más sobre la vida humana y la personalidad humana en la novelas que en la psicología científica". En efecto, en los buenos escritos novelados, en todas las épocas de la historia, se nos presenta al ser humano en toda su realidad ambiental, concreta y contextual, y, así, todo se entiende en su justa medida y relación, y no como elementos descontextualizados como los que nos da mucha psicología "científica", que, por estar fuera de contexto, no tienen un significado específico, o pueden tener muchos. En este sentido, el reduccionismo sería un camino no apropiado para el logro de un conocimiento pleno.
5. La aporía de los modelos matemáticos
David Bohm, uno de los físicos más sobresalientes de los últimos tiempos, confiaba en que los científicos del futuro dependieran menos de las matemáticas para modelar la realidad y se abrevaran más en nuevas fuentes metafóricas y analógicas. "No tratemos los formalismos matemáticos –dice– como si fueran verdades fijas que ya poseemos, sino como una extensión de nuestras formas de lenguaje (...) o como figuras efímeras que podemos identificar en las nubes (tales como caballos, montañas, etc.)" (Suppe, 1979, p. 437).
Las matemáticas asumieron un papel protagónico en la ciencia desde Galileo y Descartes en adelante, pero, mirando hacia el futuro, parecen estar destinadas a convertirse en una ciencia cada vez más experimental y con menos pretensiones de verdad absoluta. Sabemos que Hegel criticaba la matemática, como instrumento cognoscitivo universal (la mathesis universalis de Descartes), por "el carácter inesencial y aconceptual de la relación cuantitativa" (1966, pág. 30), que la priva de sustancialidad, de fenomenalidad y aun de existencia concreta; por esto, el mismo Einstein, como ya señalamos, solía repetir que "en la medida en que las leyes de la matemática se refieren a la realidad, no son ciertas, y en la medida en que son ciertas, no se refieren a la realidad"; es decir, que los modelos matemáticos pueden ser perfectos en sí, pero pueden no engranar con la realidad concreta.
Y Heisenberg, que tantas veces ponderó la exactitud y la precisión de la matemática en la física cuántica, enfatiza la aporía de la misma (es decir, su callejón sin salida), al decir que "sería una conclusión prematura afirmar que podemos evitar las dificultades, limitándonos al uso del lenguaje matemático. Ésta no es una salida real, pues no sabemos hasta qué punto puede aplicarse el lenguaje matemático a los fenómenos. En fin de cuentas, también la ciencia tiene que recurrir al lenguaje habitual cotidiano, que es el único que nos permite captar realmente los fenómenos (...). Las matemáticas son una forma (…), pero no son el contenido de la naturaleza. Se interpreta equivocadamente la ciencia moderna (...) si se sobrevalora la importancia del elemento formal" (1974, pp. 186, 213).
El mismo Russell afirmó muchas veces que "una ley puede ser muy científica sin ser matemática" (1975, p. 55); y que "las matemáticas son el tema

Nanotecnología: Casas que se reparan solas

Con nanotecnología la Universidad de Leeds busca crear casas que se reconstruyan solas luego de un terremoto. El proyecto se llama ISSB (Intelligent Safe and Secure Buildings), básicamente edificios inteligentes y seguros.
Los prototipos se están desarrollando en Grecia. Como explica Yaiza Martinez en Tendencias 21: El edificio podrá resistir los terremotos gracias a sensores de vibraciones, y a su capacidad de arreglar por sí sola las grietas que sufran sus muros, capacidad conseguida gracias a un material formado por nanopartículas poliméricas que pasan a estado líquido si se someten a presión. Dicho líquido fluye y rellena las grietas y después se endurece y forma un material sólido, arreglando así las roturas que sufra el edificio.
El proyecto está a cargo del Nano- Manufacturing Institute (NMI) de la Universidad de Leeds y cuenta con un presupuesto de la UE de 14 millones de euros. Para los expertos del NMI, esta es una oportunidad revolucionaria de aplicar a gran escala la tecnología de los polímeros.
Los polímeros son macromoléculas formadas por la unión de moléculas más pequeñas, llamadas monómeros. La nanotecnología es un conjunto de técnicas que permiten manipular la materia a escala atómica y molecular, permitiendo crear cosas de un tamaño cien mil veces menor que un cabello humano (el nanómetro equivale a la billonésima parte de un metro).
El profesor Terry Wilkins, de la Universidad de Leeds, asegura que: “En cuanto contemos con el diseño óptimo podremos empezar a producir miles de litros de la nanopartícula líquida en cuestión, que se añadiría a la mezcla de yeso en proporciones muy pequeñas.”

La revolución nanotecnológica, se asocia, por una parte, a la "fabricación molecular" cuya viabilidad tendría un impacto enorme en nuestras vidas, en las economías, los países y en la sociedad en general en un futuro no lejano. Entre los efectos, destacan sus potenciales impactos en la medicina, la biología, el medioambiente, la informática, la construcción... En la actualidad los principales avances prácticos ya se dan en algunos campos: nanopartículas, nanotubos... Los progresos -más cuestionados- en materia de nanorobots y autoreproducción son objeto de polémica entre los expertos... Lo que no cabe duda es que la revolución ha comenzado. Y también el debate sobre sus beneficios y riesgos. En euroresidentes queremos contribuir a difundir toda la información útil a los interesados en un tema de la mayor relevancia científica y social. Participar en el Foro de Nanotecnología.
La nanotecnología es un conjunto de técnicas que se utilizan para manipular la materia a la escala de átomos y moléculas. Nano es un prefijo griego que indica una medida, no un objeto. A diferencia de la biotecnología, donde "bio" indica que se manipula la vida, la nanotecnología habla solamente de una escala. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad. Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.
Nanotecnología avanzada
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito de la mina del lápiz podemos hacer diamantes. Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.

A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sotisficadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.

Aviones robóticos que recogen datos climáticos

Por primera vez, la NASA ha empezado a utilizar un avión no tripulado y equipado con instrumentos científicos para observar la atmósfera de la Tierra con más detalle. La agencia se ha asociado con Northrop Grumman para equipar tres aviones, llamados Global Hawks y que fueron entregados a la NASA por las fuerzas aéreas estadounidenses. A diferencia de los aviones tripulados equipados con instrumentos de observación de la Tierra, los Global Hawks pueden volar hasta 30 horas y recorrer distancias más largas y a elevadas altitudes; también pueden reunir datos más precisos que los satélites y se pueden emplazar para vigilar una zona durante largos períodos de tiempo.
"Hay ciertos tipos de datos atmosféricos y de ciencias de la tierra que nos estamos perdiendo, a pesar de tener cosas como satélites, aeronaves tripuladas y redes basadas en superficie", señala Robbie Hood, directora del programa de sistemas aéreos no tripulados de la National Oceanic and Atmospheric Administration (NOAA). NOAA ha llegado a un acuerdo con la NASA para ayudarles a construir los instrumentos científicos y orientarlos en las misiones científicas de los Global Hawks. Hood evaluará las aeronaves para determinar cómo se podría mejorar su uso. Por ejemplo, según ella, podrían sobrevolar un huracán para monitorizar sus cambios de intensidad o sobrevolar el Ártico para hacer un seguimiento más detallado de los cambios en el hielo marino.

La primera misión de los Global Hawks se puso en marcha la semana pasada; en ella, una aeronave voló desde el Dryden Flight Research Center de la NASA hasta la Base Aérea Edwards en California sobrevolando el Océano Pacífico. Los científicos del proyecto enviarán aproximadamente un vuelo por semana hasta finales de abril. El avión no tripulado está equipado con 11 instrumentos diferentes para realizar mediciones y elaborar un mapa de aerosoles y gases en la atmósfera, elaborar un perfil de las nubes y reunir datos meteorológicos tales como temperaturas, vientos y presiones. También cuenta con cámaras de alta definición para obtener una imagen de los colores del océano.

Blogalaxia Technology blogs Creativity & Innovation Blogs - Blog Catalog Blog Directory directorio y promoción de blogs Blog Directory by Blog Flux BlogESfera Directorio de Blogs Hispanos - Agrega tu Blog

Theme Design by devolux.nh2.me. Blogger Templates for WP 2 Blogger sponsored by Cinta.