Categories
- 3d (15)
- ADN (1)
- aiko (1)
- ARN (1)
- Artificial (5)
- asteroide (1)
- astronautas (3)
- astronomía (7)
- austin powers (1)
- avances cientificos (2)
- avances cientificos 2010 (1)
- AVANCES TECNOLOGICOS (1)
- Aviones robóticos que recogen datos climáticos (1)
- battlestar (1)
- Cámara (1)
- cápsula (2)
- Celulares (1)
- Ciencia (23)
- ciencia emergente (1)
- científica (1)
- civernetica (1)
- CO2 (1)
- codigo (1)
- codigo etico (1)
- cósmica (1)
- Criptografía (1)
- Cuántica (2)
- descubrimientos (1)
- dinosaurio (1)
- directo (1)
- El Futuro de la Ciencia (3)
- Electrónica (1)
- en vivo (1)
- ensayos (1)
- estrellas (2)
- etica (1)
- extraterrestre (1)
- galaxias (1)
- Genética (1)
- Glucomicas (1)
- HD (2)
- Herschel (1)
- IA (3)
- iceberg (1)
- imagen (1)
- Imágenes moleculares (1)
- Ingeniería Genética (2)
- Ingeniería inyectable de tejidos (1)
- innovación (1)
- Inteligencia (6)
- Inteligencia Artificial (10)
- leyes (1)
- leyes de la robótica (2)
- Litografía Nano impresión (1)
- mar (1)
- marte (1)
- Mecatrónica (1)
- medicina (1)
- Micromaquinas (2)
- Micromáquinas (2)
- Nano células solares (1)
- Nanobots (3)
- Nanociencia (3)
- Nanotecnología (6)
- Nanotecnología y Micromáquinas (1)
- NANOTECNOLOGÍA Y NANOCINCIA EN ESPAÑOL (1)
- Nanotecnología: Casas que se reparan solas (1)
- nasa (5)
- Neuronas (1)
- Nokia (1)
- Nokia N8 (1)
- Nokia N97 (1)
- noticias (4)
- planeta (1)
- planetas (2)
- Quantum (1)
- Redes de sensores sin cables (1)
- Redes Neuronales (1)
- reproducción (1)
- Revolución 3D (1)
- Road to Pad Abort 1 (1)
- Robótica (10)
- Robots (13)
- salvamento (1)
- salvavidas espacial (1)
- Semillas (1)
- sexy (1)
- sistema solar (1)
- Sistemas informáticos Grid (1)
- Smartphone (1)
- Software fiable (1)
- tecnologia (2)
- tecnología (12)
- terminator (1)
- Tokio (1)
- Top Ten (1)
- vacterias (1)
- ver (1)
- ver video (2)
- video (8)
- Videos (3)
Videojuegos gratis y animes online
Pages
Con la tecnología de Blogger.

Archivo del blog
-
▼
2010
(51)
-
▼
abril
(19)
- INGENIERÍA GENÉTICA
- NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 5)
- NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 4)
- NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 3)
- NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 2)
- NANOTECNOLOGIA Y MICROMAQUINAS. (Video Parte 1)
- ROBOTS Increibles. (Video Parte 5)
- ROBOTS Increibles. (Video Parte 4)
- ROBOTS Increibles. (Video Parte 3)
- ROBOTS Increibles. (Video Parte 2)
- ROBOTS Increibles. (Video Parte 1)
- INTELIGENCIA ARTIFICIUAL Y ROBÓTICA (Video Parte 2)
- INTELIGENCIA ARTIFICIAL Y ROBÓTICA (Video Parte 1)
- Inteligencia Artificial y Robotica
- El Futuro de la Ciencia
- Nanotecnología: Casas que se reparan solas
- La revolución nanotecnológica, se asocia, por una ...
- Sin título
- Aviones robóticos que recogen datos climáticos
-
▼
abril
(19)
INTELIGENCIA ARTIFICIAL Y ROBÓTICA (Video Parte 1)
No Comments
·
Posted by Anónimos
in
IA,
Inteligencia Artificial,
Neuronas,
Redes Neuronales
¿Ciencia Ficción o Realidad Científica?. ¿Podrán las computadoras emular al pensamiento humano?. En la siguiente nota podemos enterarnos un poco más de que se trata este apasionante tema de la I.A.
LA I.A. UN POCO DE HISTORIA
LA HEURÍSTICA La heurística es el análisis y la extrapolación de datos basados en experiencias pasadas y en sus consecuencias, este apartado es de una importancia vital para la IA interna en los juegos de ordenador.
Ver Video Parte 1
LA I.A. UN POCO DE HISTORIA
- 1950. El nacimiento real de la IA se produjo en este año, cuando Norbet Wiener desarrolló el principio de la retroalimentación. Esta técnica consiste, por ejemplo, en la tecnología del termostato, comparar la temperatura actual del entorno con la deseada y, según los resultados aumentarla o disminuirla.
- 1955. Newell y Simon desarrollan la Teoría de la lógica. Este desarrollo permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y nudos, seleccionando únicamente las ramas que más parecían acercarse ala solución correcta del problema.
- 1956. En una conferencia en Vermont, John McCarthy propone el término “Inteligencia Artificial” para denominar el estudio del tema. Después se prepara el terreno par el futuro en la investigación de la IA.
- 1957. Aparece la primera versión de “The General Problem Solver” (GPS), un programa capaz de solucionar problemas de sentido común. El GPS utilizaba la teoría de la retroalimentación de Wiener.
- 1958. McCarthy anuncia su nuevo desarrollo el lenguaje LISP (LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la IA.
- 1963. El MIT recibe una subvención de 2,2 millones de dólares del gobierno de los Estados Unidos en concepto de investigación en el campo de la IA.
- 1970. Se produce el advenimiento de los Sistemas Expertos. Los Sistemas Expertos se han utilizado para ayudar a los médicos a diagnosticar enfermedades e informar a los mineros a encontrar vetas de mineral. Al mismo tiempo Davir Marr propone nuevas teorías sobre la capacidad de reconocimiento visual de las diferentes máquinas.
- 1972. Aparece el lenguaje PROLOGUE basado en las teorías de Minsky.
- 1980. Las ventas de hardware y software relacionados con la IA se contabilizan por 425 millones de dólares sólo en 1986. Compañías como DuPont, General Motors, y Boeing utilizan sistemas expertos a principios de la década de los 80 y éstos sistemas expertos se convertirán en un standard a finales de la misma.
- En los 90. La IA se utiliza de forma efectiva en la Guerra del Golfo sobre sistemas de misiles visores para los soldados y otros avances, y al mismo tiempo, invade nuestros hogares y vida cotidiana en muchos más lugares.
Por ejemplo, un enemigo podrá intentar una aproximación, grabando los resultados de esa aproximación en su memoria. Si fracasa en su intento de eliminar al jugador, la próxima vez que intente algo parecido sabrá que, bajo las mismas circunstancias, ha fracasado una vez e intentará otra ruta de aproximación al jugador. Si por el contrario tiene éxito, aún podrá obtener un aprendizaje de sus actos, y extrayendo aquellas acciones que más han contribuido a la consecución del fin, que es eliminar al jugador; así la próxima vez que el ordenador se encuentre en semejante situación. La heurística, por tanto, permite tener enemigos con memoria.
LOS SISTEMAS EXPERTOS Un sistema experto puede definirse como un sistema basado en los conocimientos que imita el pensamiento de un experto para resolver problemas de un terreno particular de aplicación.
Una de las características principales de los sistemas expertos es que están basados en reglas, es decir, contienen conocimientos predefinidos que se utilizan para tomar todas las decisiones.
Un sistema experto genérico consta de dos módulos principales:
La base de conocimientos del sistema experto con respecto a un tema específico para el que se diseña el sistema. Este conocimiento se codifica según una notación específica que incluye reglas, predicados, redes semánticas y objetos.
El motor de inferencia que es el que combina los hechos y las preguntas particulares, utilizando la base de conocimiento, seleccionando los datos y pasos apropiados para presentar los resultados.
Historia de los sistemas expertos:
1965 DENDRAL, el primer sistema experto
- En 1965 Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue éste estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego “árbol”.
- Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, esta era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
- La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.
1972 MYCIN
- MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características de la persona, tales como el peso corporal de este. Después del reconocido éxito que tuvo.
1973 TIERESIAS
- El cometido de este sistema experto era el de servir de intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su base de datos. El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso lo que se necesita.
1979 XCON, primer programa que sale del laboratorio
- Su usuario fue la Digital Equipament Corporation (DEC).
- El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
- En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.
- En 1980 se instauró totalmente en DEC y en 1984 el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.
80-8 La revolución de los Sistemas Expertos
- En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en Disco” para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.
- Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las “máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas de desarrollo de sistemas expertos”.
1987 XCON empieza a no ser rentable
- Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA.
1987 El fin del LISP
- En 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje “C” lo que acabó con el LISP.
Ver Video Parte 1
No comments yet.
Next Page >>