Categories
Física

El Azar Verdadero, O Sea el de la Mecánica Cuántica, Aprovechado en una Máquina

Detrás de toda “casualidad” hay una cadena muy específica de eventos, al menos en nuestro mundo cotidiano, que es el de la física clásica. En principio, cada evento, incluyendo cómo caen los dados o el resultado de hacer girar la ruleta en un casino, puede ser explicado en términos matemáticos. Unos investigadores en el Instituto Max Planck para la Ciencia de la Luz en Erlangen, Alemania, han construido un dispositivo que trabaja basándose en el principio de la verdadera aleatoriedad.

Con ayuda de la física cuántica, esta nueva y llamativa máquina genera números aleatorios que no pueden ser predichos. Los números verdaderamente aleatorios son necesarios para la codificación segura de datos y para posibilitar simulaciones mucho más fiables de procesos económicos y cambios en el clima.

El fenómeno al que normalmente nos referimos como azar es meramente una cuestión de falta de conocimiento. Si conociéramos la ubicación, la velocidad y otras características contempladas por la física clásica, de todas las partículas en el universo con certeza absoluta, seríamos capaces de predecir casi todos los procesos en el mundo cotidiano. Podríamos incluso predecir los números ganadores de la lotería.

Los actuales programas informáticos para generar números aleatorios están lejos de funcionar al azar: Ellos simplemente lo simulan, y con la ayuda de un volumen de datos suficiente y los análisis apropiados, casi siempre se puede identificar qué patrón sigue cada programa.

En respuesta a este problema, un grupo de investigadores, incluyendo a Gerd Leuchs y Christoph Marquardt del mencionado instituto y de la Universidad de Erlangen-Núremberg, y Ulrik Andersen de la Universidad Técnica de Dinamarca, han desarrollado un generador de verdaderos números aleatorios.

El azar auténtico sólo existe en el mundo de la mecánica cuántica. Una partícula cuántica permanecerá en un lugar u otro y se moverá a una velocidad u otra, sólo con cierto grado de probabilidad. El equipo de Marquardt ha explotado esta aleatoriedad de los procesos de la mecánica cuántica para generar verdaderos números aleatorios.

Categories
Computación/Informática

Algoritmos Para Dotar a los Robots de la Capacidad de Mentir y Engañar. ( O_O )

Un robot embauca a un soldado enemigo mediante la creación de una pista falsa y se oculta para no ser capturado. Aunque esto suena como una escena sacada de alguna película de ciencia-ficción de la saga de “Terminator”, es en realidad el escenario de un experimento realizado por investigadores del Instituto Tecnológico de Georgia, Estados Unidos, como parte de lo que se considera el primer examen detallado de un engaño perpetrado por un robot.

Ronald Arkin y su equipo han desarrollado algoritmos que permiten a un robot determinar si debe o no engañar a un humano o a otra máquina inteligente, y han diseñado técnicas que ayudan a que el robot elija la mejor estrategia de engaño para reducir las probabilidades de ser descubierto.

Los resultados del estudio competen a las interacciones robot-robot y humano-robot.

Esta investigación ha sido financiada por la Oficina de Investigación Naval, dependiente de la Armada Estadounidense.

En el futuro, los robots capaces de engañar pueden ser útiles en diversas áreas, incluyendo las actividades militares y también las operaciones de búsqueda y rescate.

Un robot de búsqueda y rescate puede necesitar engañar con mentiras piadosas a humanos en peligro, con el fin de calmarles o de recibir de ellos la cooperación necesaria, evitando que el pánico se apodere de ellos y les incapacite para emprender las acciones requeridas por el plan de rescate.

En el campo de batalla, los robots con el poder del engaño tendrán la habilidad de ocultarse y despistar con éxito al enemigo, y así mantener a salvo una información valiosa o ser capaces de alcanzar otros objetivos.

Probablemente, la mayoría de los robots sociales raramente necesitarán utilizar el engaño, pero ésta sigue siendo una herramienta importante en el arsenal interactivo del robot, porque los que reconozcan la necesidad de engañar tienen ventajas, en términos de resultados, en comparación con los que no la reconozcan. Así lo cree Alan Wagner, un ingeniero investigador del Instituto Tecnológico de Georgia, y miembro del equipo de investigación.

Para poner a prueba sus algoritmos, los investigadores realizaron 20 experimentos con situaciones en las que un robot debía eludir a otro que le estaba buscando. Unos y otros funcionaban de manera autónoma sobre el terreno.

Los robots que se escondían fueron capaces de engañar a los robots buscadores en el 75 por ciento de las pruebas. Se espera que este porcentaje, aunque es razonablemente bueno, aumente más a medida que se perfeccione la capacidad de los robots para engañar.

Los investigadores admiten que, si bien hay ventajas en la creación de robots con esta capacidad, también existen cuestiones éticas que deben ser tenidas en cuenta para garantizar que estas nuevas y taimadas máquinas estén en consonancia con las expectativas de sus creadores sobre lo que deben y lo que no deben hacer, y no comprometan el bienestar de la sociedad.

“Hemos estado muy sensibilizados desde el principio con las implicaciones éticas de crear robots capaces de engañar, y somos conscientes de que hay aspectos positivos y otros negativos”, confiesa Arkin.”Recomendamos plenamente el debate sobre la idoneidad de estos robots, a la hora de decidir qué posibles reglamentaciones o directrices deberían regir el desarrollo de estos sistemas”.

Categories
Física

Teoría de cuerdas…

Pues esto es, más o menos, en términos para todos los públicos, lo que trae a todos los físicos teóricos de hoy día locos

¿Llegarán a dar con una teoría que lo englobe todo tal y como buscan? No sé sabe, pero lo que si es cierto, es el admirable esfuerzo que invierten todos ellos en ver más allá…

Categories
Física

La Aparente Relación Entre el Entrelazamiento Cuántico y la Teoría de las Cuerdas

Un equipo de investigadores ha ideado una manera de llevar a cabo la primera prueba experimental de la teoría de las cuerdas. La teoría de las cuerdas se desarrolló originalmente para describir las fuerzas y las partículas fundamentales que componen nuestro universo.

El inesperado descubrimiento de que la teoría de cuerdas también parece predecir el comportamiento de las partículas entrelazadas cuánticamente es la clave de este posible modo de comprobar dicha teoría. Como esta predicción puede ser comprobada en el laboratorio, los investigadores ahora pueden verificar la teoría de las cuerdas.

En los últimos 25 años, la teoría de las cuerdas se ha convertido para los físicos en la candidata favorita para la “teoría del todo”, la conciliación entre lo que sabemos sobre lo muy pequeño (la física de partículas) y lo que sabemos sobre lo muy grande (la cosmología). Utilizar la teoría para predecir cómo se comportan las partículas entrelazadas cuánticamente constituye la primera oportunidad para poner a prueba experimentalmente la teoría de las cuerdas.

Si los experimentos demuestran que las predicciones de los científicos sobre los entrelazamientos cuánticos son correctas, esto demostrará que la teoría de las cuerdas es válida para predecir el comportamiento de los sistemas cuánticamente entrelazados, tal como argumenta el profesor Mike Duff, autor principal del estudio, del Departamento de Física Teórica del Imperial College de Londres.

Esto no será una prueba de que la teoría de las cuerdas es la “teoría del todo” correcta que está siendo buscada por cosmólogos y físicos de partículas. Sin embargo, será muy importante para los teóricos, ya que demostrará si la teoría de las cuerdas funciona o no.

No hay ninguna conexión obvia para explicar por qué una teoría que está siendo desarrollada para describir el funcionamiento fundamental de nuestro universo es útil para predecir el comportamiento de los sistemas entrelazados cuánticamente. “Esto quizá nos esté diciendo algo muy profundo sobre el mundo en el que vivimos, o puede no ser más que una coincidencia peculiar. De cualquier manera, es útil”, concluye Duff.

Categories
Computación/Informática

Importante Avance en Sistemas de Aprendizaje Automático

En los últimos 20 años aproximadamente, muchos de los avances clave de la investigación en inteligencia artificial se han materializado gracias al aprendizaje automático, con el cual los ordenadores aprenden a realizar predicciones mediante la estrategia de buscar patrones dentro de grandes conjuntos de datos con los que entrenarse.

Un nuevo enfoque llamado programación probabilística hace que sea mucho más fácil construir un sistema de aprendizaje automático, pero sólo es útil para un conjunto de problemas relativamente pequeño. Ahora, unos investigadores del MIT han descubierto cómo extender el enfoque a una clase de problemas mucho más grande, con implicaciones para temas tan diversos como la ciencia cognitiva, el análisis financiero y la epidemiología.

Históricamente, construir un sistema de aprendizaje automático capaz de aprender una nueva tarea le suele llevar a un estudiante de postgrado desde algunas semanas hasta varios meses. Un conjunto de nuevos lenguajes de programación probabilísticos y experimentales, uno de los cuales, Church, fue desarrollado en el MIT, promete acortar ese tiempo hasta un mero lapso de algunas horas.

En el corazón de cada uno de estos nuevos lenguajes está un algoritmo de inferencia, que indica al sistema de aprendizaje automático cómo llegar a conclusiones a partir de los datos presentados. El carácter generalista de estos algoritmos de inferencia es lo que confiere potencia a los lenguajes: El mismo algoritmo tiene que ser capaz de guiar un sistema que esté aprendiendo a reconocer objetos en imágenes digitales, o a filtrar correo spam, o a recomendar películas en DVD basándose en las alquiladas en ocasiones anteriores, o a realizar cualquier otra cosa que se le pueda pedir a un programa de inteligencia artificial.

Los algoritmos de inferencia utilizados actualmente en la programación probabilística dan buenos resultados manejando datos del tipo que en matemáticas reciben el nombre de Datos Discretos, pero les resulta difícil trabajar con información más compleja, del tipo que en matemáticas se conoce como Datos Continuos.

Por lo tanto, los diseñadores de lenguajes de programación probabilísticos tienen mucho interés en saber si es posible diseñar un algoritmo de inferencia de utilidad general que pueda manipular datos continuos. Desafortunadamente, la respuesta parece ser No.

Sin embargo, también hay buenas noticias: Daniel Roy y Cameron Freer, del MIT, han demostrado que existen grandes clases de problemas en los que intervienen datos continuos que son susceptibles de ser debidamente procesados mediante una solución general. Además, estos investigadores han descrito un algoritmo de inferencia que puede tratarlos. Un lenguaje de programación probabilístico con el nuevo algoritmo incorporado facilitaría el rápido desarrollo de una variedad mucho mayor de sistemas de aprendizaje automático.

Categories
Física

Medir los Efectos de la Gravedad a Distancias Cortísimas

Un nuevo experimento propuesto por físicos en el Instituto Nacional estadounidense de Estándares y Tecnología (NIST) podría hacer posible que los científicos comprobasen con una precisión sin precedentes los efectos de la gravedad a muy cortas distancias, en una escala espacial en la que podrían detectarse nuevos y exóticos detalles del comportamiento de ésta.

De las cuatro fuerzas fundamentales que gobiernan las interacciones en el universo, la gravedad puede resultarnos la más familiar, pero irónicamente es la menos comprendida por los físicos. A pesar de que la influencia de la gravedad sobre cuerpos separados por distancias astronómicas está bien estudiada, apenas ha sido comprobada a escalas muy pequeñas, en el orden de las millonésimas de metro, un ámbito en el que a menudo predominan las fuerzas electromagnéticas. Esta ausencia de datos ha generado años de debate científico

Hay muchas teorías distintas sobre si la gravedad se comporta de modo distinto a distancias tan cortas. Pero resulta bastante difícil acercar tanto a dos objetos y medir con la precisión necesaria el movimiento de uno respecto al otro.

Tratando de superar este problema, el equipo del físico Andrew Geraci del NIST ha diseñado un experimento en el cual se suspendería una pequeña cuenta de cristal en una “botella” láser, permitiéndola moverse de un lado a otro dentro de la botella. Como habría muy poca fricción, el movimiento de la cuenta sería extremadamente sensible a las fuerzas que la rodeasen, incluyendo la fuerza de gravedad ejercida por un objeto pesado situado en las cercanías.

Según el equipo de investigación, el experimento propuesto permitiría comprobar los efectos de la gravedad sobre partículas separadas por una milésima parte del grosor de un cabello humano, lo cual podría finalmente posibilitar que se comprobara la ley de Newton con una sensibilidad 100.000 veces mejor que con los experimentos realizados hasta ahora.

27 de Septiembre de 2010.

Categories
Computación/Informática Lógica Matemáticas

La siguiente revolución lógica

La siguiente Revolución Lógica incorpora la fusión entre matemáticas y computación. Las computadoras tienden a explorar datos inteligentementetransfiriendo información de las bases de datos a las bases de conocimiento interconectadas a través de la Red a escala infinitesimal.

La lógica evoluciona pues como un gen hacia la culminación del conocimiento libre que nace del rigor formal de la Matemática griega; emerge renovadamente de etapas de persecución tan oscuras como la Edad Media y otros intentos más recientes; hasta el intercambio constante y continuo de datos en la moderna era de estructura de redes que Internet proporciona a modo neuronal a la Humanidad.

Categories
Computación/Informática Lógica

La Revolución Digital

Esta revolución se inicia con la invención de la computadora digital y el acceso universal a las redes de alta velocidad. Turing relaciona lógica y computación antes que cualquier computadora procese datos. Weiner funda la ciencia de la Cibernética. En las Escuelas modernas de Computación están presentes Lógicos que han permitido avances importantes comoHoare que presenta un sistema axiomático de los sistemas de programación y Dijkstra con un sistema de verificación y deducción de programas a partir de especificaciones.

Categories
Lógica Matemáticas

Formalización de las Matemáticas

Esta etapa se caracteriza por el resurgimiento de la formalización rigurosa de las matemáticas, que en la etapa clásica griega fué representativa. El uso de los infenitesimales fue una de las prácticas más notoria en la época renacentista, para la cual no se ofrecía una justificación. La rigorización del análisis llegó con la eliminación de los infinitesimales y la presencia de los límites como argumento. En este periodo se crea la lógica simbólica, la escuela formal, la lógica booleana, el cálculo proposicional, la inducción matemática, el cálculo de secuentes,…. Personajes muy notables de esta etapa son: Peano, Hilbert, Frege, Boole, de Morgan, Gentzen, Russell, Gödel y Whitehead. A Rusell y Gödel se deben los planteamientos de las limitantes de la lógica y de la ciencia en general.

Categories
Lógica

Platón, Aristóteles y Euclides

Platón

Platón, 427aC – 347 aC, propone instaurar en Siracusa una utópica república dirigida por filósofos. Crea la Academia de Atenas que no era solo una institución filosófica, sino centro de formación política para jóvenes aristócratas. Según algunos especialistas, Platón edifica su teoría del conocimiento con el fin de justificar el poder emergente de la figura del filósofo. Sostiene la existencia de dos mundos -el mundo de las ideas y el de mundo físico de los objetos. Según Platón, lo concreto se percibe en función de lo abstracto y por tanto el mundo sensible existe gracias al mundo de las ideas. Platón escoge el formato diálogo como forma de transmisión del pensamiento.

Aristóteles

Los tratados de lógica de Aristóteles, 384aC – 332 aC, conocidos comoOrganón, contienen el primer tratado sistemático de las leyes de pensamiento para la adquisición de conocimiento. Representan el primer intento serio que funda la lógica como ciencia. Aristóteles no hace de la lógica una disciplina metafísica sino que establece correspondencias recíprocas entre pensamiento lógico y estructura ontológica. El silogismo fue adoptado por los escolásticos que representan el sistema teológico-filosófico, característico de la Edad Media. La escolástica, sin embargo, acabó por sobrecargar la teoría del silogismo, lo que acarreó su descrédito a partir del Renacimiento. Los lógicos de la edad moderna como Ramée, Arnauld, Nicole, Leibniz, Euler, y Lambert procuraron simplificarla al máximo, y su tratamiento matemático se completó hasta principios del siglo XX con Boole, De Morgan, Frege y Russell. Desde entonces el silogismo se incluye en la lógica de predicados de primer orden y en la lógica de clases, y ocupa en la ciencia lógica un papel mucho menor que en otros tiempos.

Euclides

Matemático alejandrino autor de la universal obra, los célebres Elementos. Uno de los textos matemáticos más relevantes de la historia del pensamiento científico hasta del siglo XIX. Los Elementos están divididos en XIII Libros y constituyen la recopilación más exhaustiva de las matemáticas conocidas en el año 300 aC. Su valor universal lo propaga el uso riguroso del método deductivo que distingue entre principios -definiciones, axiomas y postulados-, y teoremas, que se demuestran a partir de los principios. A lo largo de la historia se mantuvo la sospecha de que el quinto postulado era demostrable a partir de los anteriores. El deseo de resolver tal hipótesis ocupa hasta el siglo XIX con la construcción de las geometrías no euclidianas y se deduce con ellas la imposibilidad de demostrar el quinto postulado.