Archivo de la categoría: Ingenieria de Sistemas

Es el Arte de Aplicar Matematica, Fisica y el Analisis para resolver mediante un conjunto de Reglas o Pasos algun Problema de la Sociedad en General.

Computadoras Holográficas

1. Introducción

En la actualidad, se cuenta con hologramas generados por computadoras y de hologramas generados químicamente de la misma manera, por medio de la configuración de franjas, tienen la información de la forma y la estructura en que se esparce luz. Para observar este tipo de hologramas, también es necesario que se reconstruyan un haz de luz coherente proveniente de un láser. Algunos tipos de hologramas son de: Fresnel, Fraunhofer, Imagen, y de Fourier. En la actualidad, con el desarrollo de las computadoras y del software científico, y con la ayuda de algoritmos de transformadas discretas de Fourier o de Fresnel es posible diseñar fácilmente hologramas. A menudo, se usa el algoritmo de la transformada rápida de Fourier.
Los hologramas generados por computadora ayudan a producir frentes de onda con una amplitud diseñada y una cierta distribución de fase; las aplicaciones de dichos sistemas se aplican en exploración por láser, en filtros espaciales ópticos, en pruebas de superficies ópticas y sobre todo como memorias holográficas. Para realizar los hologramas de Fourier, se graba el patrón de interferencia entre dos haces provenientes de un láser. Uno llamado haz de referencia y otro que ilumina al objeto y pasa por una lente positiva (convexa) llamado haz objeto. El haz objeto que hace interferencia es la transformada de Fourier del objeto que se forma en el plano de frecuencias de la lente (o también conocido como plano de Fourier).

2. Objetivos

El objetivo principal del tema de Computadoras Holográficas, está basada en el reduccionismo que día a día se ve como influencia en el mundo moderno, especialmente en el mundo tecnológico, como por ejemplo podemos ver que el almacenamiento, en el pasado, un disco duro no podía almacenar mas de 1GB, hoy en día, esta capacidad se ve multiplicada por 1000, y en menor proporción de tamaño a los que se usaba anteriormente; otro ejemplo de la actualidad son las pantallas o monitores, que hoy en la actualidad se fabrican con tecnología LCD o LED, de tal modo la extinción de estos ya está escrita, debido a la evolución de la tecnología, en un futuro no muy lejano estaremos a merced de las computadoras holográficas en el espacio, ya seá por su bajo costo y mayores beneficios, en el cual no se necesitara el uso de componentes físicos, como ser: monitor, teclado, mouse, joystick, etc. Solo bastara un simple computador holográfico, basado en lo que actualmente conocemos como proyector holográfico.
Nuestra opinión personal es que el reduccionismo de la tecnología no morirá, pero sí se desarrollará la consciencia de que para resolver ciertos problemas existe la necesidad de recurrir a un paradigma más avanzado. De la misma manera que la Mecánica de Newton sigue aplicándose en la vida diaria en el 99% de las ocasiones, y la Relatividad sólo se reserva para casos complejos y especiales, el reduccionismo seguirá siendo útil en la mayoría de los casos, pero aquellos sistemas más interesantes y complejos se deberán analizar usando el paradigma holográfico. Después de todo, el universo no es un reloj de cuerda sino más bien un inmenso holograma.

3. Descripción

• Computadoras Holográficas

La holografía es una técnica avanzada de fotografía, que consiste en crear imágenes tridimensionales. Para esto se utiliza un rayo láser, que graba microscópicamente una película fotosensible. Ésta, al recibir la luz desde la perspectiva adecuada, proyecta una imagen en tres dimensiones.
La holografía fue inventada en el año 1947 por el físico húngaro Dennis Gabor, que recibió por esto el Premio Nobel de Física en 1971. Recibió la patente GB685286 por su invención. Sin embargo, se perfeccionó años más tarde con el desarrollo del láser, pues los hologramas de Gabor eran muy primitivos a causa de las fuentes de luz tan pobres que se utilizaban en sus tiempos.
Originalmente, Gabor sólo quería encontrar una manera para mejorar la resolución y definición de las imágenes del microscopio electrónico. Llamó a este proceso holografía, del griego holos, “completo”, ya que los hologramas mostraban un objeto completamente y no sólo una perspectiva.
Los primeros hologramas que verdaderamente representaban un objeto tridimensional bien definido fueron hechos por Emmett Leith y Juris Upatnieks, en Estados Unidos en 1963, y por Yuri Denisyuk en la Unión Soviética.
Uno de los avances más prometedores hechos recientemente ha sido su uso para los reproductores de DVD y otras aplicaciones. También se utiliza actualmente en tarjetas de crédito, billetes y discos compactos, además de su uso como símbolo de originalidad y seguridad.

• Pantallas Holográficas Interactivas

Las pantallas holográficas interactivas consisten en pantallas holográficas, es decir, pantallas que forman las imágenes a partir de la proyección de rayos de luz sobre un soporte de cristal ya sea opaco o transparente, y que a la vez permiten la interactividad, que consiste en dejar que el usuario pueda decidir qué es lo que quiere ver proyectado y modificarlo siempre que quiera con sus manos.

El sistema que usan las pantallas holográficas interactivas consta de tres componentes básicos:

Un proyector.
Un ordenador.
Dos films.

El funcionamiento es el siguiente: el ordenador envía al proyector la imagen a proyectar. El proyector al recibir la señal genera los rayos de luz que inciden sobre el film pantalla generando la imagen holográfica. Finalmente, cuando el usuario entra en contacto con la pantalla y le da instrucciones usando las manos como si fueran el ratón del ordenador, el film membrana táctil capta estos movimientos, genera los impulsos eléctricos correspondientes y los envía al ordenador. El ordenador interpreta los impulsos recibidos y modifica la imagen a proyectar de acuerdo con esta información.

4. Conclusiones

• El Reduccionismo

“La naturaleza de las cosas complejas se reduce a la suma de cosas más simples o fundamentales.”
Esta idea se llama “reduccionismo” y no ha sido hasta hace muy poco que se ha empezado a dudar de su veracidad, pues existen en la naturaleza algunos sistemas complejos que se niegan a ser llevados a sus partes fundamentales tan fácilmente. Entre ellos están los sistemas biológicos conocidos como seres vivos.
En términos técnicos, el reduccionismo nos dice que los sistemas son lineales, y que todos funcionan al modo de los mecanismos de relojería. Podemos ilustrarlo por la manera que un relojero determina como funcionan sus relojes, estudiando cada engranaje y cada piñón, sus torques y transmisiones, de tal forma que sumando sus efectos individuales comprende lo que hace la maquinaria entera. Basta mirar el plano de un reloj y mirar cada pieza para sumar sus efectos y saber cómo funcionará el sistema completo.
En efecto, hay en el universo una infinidad de sistemas que se comportan en forma lineal y que se adaptan fácilmente al reduccionismo. El método científico en sí mismo enseña a analizar las partes para entender el todo.
Sin embargo, existen fenómenos que se oponen fieramente al reduccionismo. De entre los más intrigantes son aquellos de la física de lo extremadamente pequeño. Cuando queremos comprender qué es un electrón, por ejemplo, nos damos cuenta que los fenómenos físicos pueden ser mucho más complejos de lo esperado y que las “partes elementales” de nuestro mundo de relojero parecieran tener propiedades mágicas.
Los fenómenos climáticos, entre otros, se rigen por matemáticas no lineales, que producen comportamientos denominados caóticos, que se niegan sistemáticamente a la aplicación del reduccionismo clásico y que están forzando a los científicos a estudiarlos con otro tipo de paradigmas y mentalidades más abiertas.
Finalmente, existe en el universo un sistema natural que es en extremo complejo y que nos oculta sus secretos porfiadamente. Se trata de un mecanismo no lineal en extremo, que nos se deja reducir a partes elementales. Es el objeto más complejo conocido en el universo y uno de sus productos es la conciencia. Se trata del cerebro humano.

• Un Mundo Holográfico

La invención de la holografía en 1947 por Dennis Gabor afectó profundamente la visión del mundo impuesta por el “reduccionismo”, pues los hologramas podían fraccionarse y cada una de sus partes todavía contenía información suficiente para reproducir la imagen completa. Se perdía resolución, por supuesto, pero el “todo” era claramente reconocible en función de una “parte”.
En la fotografía convencional se almacena un registro punto por punto de la intensidad y color de la luz. Si cortamos la fotografía con una tijera, la zona descartada se pierde para siempre y ya no la podemos recuperar del resto de la imagen. En un holograma, en cambio, lo que se graba no es sólo la intensidad sino que el patrón de interferencia de la luz incidente en cada punto de la imagen con respecto a un láser de referencia. Para hacerlo se usa un rayo de referencia que es combinado con la luz de la escena. Si ambos rayos provienen del mismo láser se crea una interferencia óptica debido a la superposición de ondas de luz. Ese patrón es almacenado en la placa holográfica.
Lo importante aquí es que la información que recibe el observador no está grabada en la placa en un punto único, sino que es toda la placa la cual registra los patrones de interferencias adecuados para reproducir la escena al ser iluminada por un láser, generando una imagen idéntica al original desde cualquier ángulo que se le mire. Ahora bien, si alguien decide cortar un holograma en trozos, cada uno de ellos seguirá reproduciendo la escena completa, sólo que a menor calidad.

• Hologramas Naturales

Desde hace mucho tiempo se sabe que el cuerpo humano también maneja su información de manera distribuida. Cada una de las células porta toda la información genética de un hombre. De manera un tanto misteriosa, el cuerpo se repara continuamente, activando porciones del código genético en ciertas células y no en otras. El control de toda esta actividad es claramente distribuido en todo el organismo, sin existir una unidad central que lo regule. Sistemas como el inmunológico y el nervioso, entre otros, se regulan a la manera de un holograma.

• Mecánica Cuántica

A principios del siglo veinte la ciencia comenzó a darse cuenta que la realidad era mucho más compleja de lo que nunca pensó. La idea que la materia estaba hecha de partículas mínimas se hizo trizas y con ello el reduccionismo sufrió un duro golpe. Trágicamente, este vino del análisis de una partícula que se suponía sólida y mínima: el electrón.
El electrón tiene un comportamiento esquivo. En ocasiones se comporta como una onda y en otras como una partícula. Para entender que era realmente, los físicos se vieron obligados a desarrollar nuevos modelos matemáticos que introdujeron conceptos sorprendentes. Hoy se sabe que un electrón en su órbita se comporta como “una onda de probabilidad”. Vale decir, no se encuentra en una ubicación precisa dentro de la misma y sólo conocemos la probabilidad de que se encuentre en cierto lugar.
Ahora bien, en el mundo cuántico los electrones no son bolitas minúsculas que se desplazan por las órbitas atómicas, sino más bien nubes de probabilidad que ocupan una región del espacio. Si el lector tiene problemas en entender este concepto, no se preocupe, pues no es el único, ya que ha sido un quebradero de cabezas para los mejores físicos del mundo por casi un siglo.
Lo que importa para el tema en cuestión es que los fenómenos cuánticos parecieran ser fenómenos distribuidos y no locales, que funcionan de manera similar a los hologramas y a las redes neuronales. No es extraño entonces que los científicos estén tratando de construir computadoras basadas en fenómenos cuánticos, con las cuales podrían un día imitar no sólo los fenómenos físicos sino que el funcionamiento del propio cerebro. Los computadores cuánticos funcionarían a velocidades inalcanzables por nuestras máquinas convencionales.

• La Hipótesis Holográfica

Todo este torbellino de ideas fue sintetizado por dos científicos notables. El primero fue el físico David Bohm, quien describió por primera vez el paradigma holográfico. Su pensamiento estaba en entera oposición al “reduccionismo” y la idea asociada de que el tiempo, el espacio y la materia son objetos independientes de su medición. Para Bohm, el mundo era complejo e interrelacionado: un objeto holístico al estilo de la metafísica de los místicos. Bohm, además, colaboró con el cirujano Karl Pribram en la elaboración de una teoría de la memoria humana, que la describe como una impresión holográfica. Finalmente Roger Penrose, afamado matemático inglés, en su libro “La Nueva Mente del Emperador” (1988) afirma que la consciencia humana depende de fenómenos cuánticos imposibles de imitar por las computadoras convencionales. Tales fenómenos cuánticos tienen un carácter definitivamente holográfico. De ser cierto, la búsqueda de la consciencia artificial que emprendieron los informáticos hace ya mucho tiempo, tendrá que esperar por el desarrollo de computadores cuánticos.
Finalmente, el desarrollo de la teoría de los agujeros negros, que con su apetito voraz son capaces de alterar la trama misma del espacio-tiempo, da pie a muchas teorías audaces de universos paralelos comunicados entre sí. Universos en racimos, que conviven en una continuidad espacio-temporal en un eterno presente. Todas las épocas serían contemporáneas en un presente infinito. Tales ideas están presentes entre las mentes inquietas del mundo científico y también literario. Ya en l941, en su antología “El jardín de senderos que se bifurcan”, Jorge Luis Borges publicó un cuento llamado “Tlön, Uqbar, Orbis Tertius”, en donde anuncia el descubrimiento de una enciclopedia que describiría un mundo con nuevas leyes físicas. Curiosamente, ese cuento fue la inspiración para la novela “La Segunda Enciclopedia de Tlön”, del escritor chileno Sergio Meier, quien llevó estos conceptos al extremo. En su novela, el autor nos sumerge en un mundo en apariencia extraño, donde las realidades son hologramas sintéticos de dimensiones cósmicas, Pudiera pensarse que se trata de una fantasía sin sustento alguno en la realidad, sin embargo Meier, versado en ciencia moderna, pudo llevar al arte una de las partes más bellas y desconocidas de la especulación científica moderna: el paradigma holográfico.

• ¿El Fin del Reduccionismo?

La existencia de sistemas distribuidos y no lineales, tales como las redes neurales naturales y artificiales, los fenómenos cuánticos y los hologramas, ha sido un gran problema para el dogma científico, ya que se trata de evidencia tangible de que el reduccionismo no se puede aplicar a todos los casos, pues hay sistemas que funcionan de manera distribuida y colaborativa, que no pueden ser estudiados sólo analizando sus partes por separado.

5. Anexos

Método de obtener imágenes fotográficas tridimensionales. Las imágenes se crean sin lente alguna, por lo que esta técnica también se denomina fotografía sin lente. Las grabaciones reciben el nombre de hologramas (en griego, holos, ‘todo’; gram, ‘mensaje o cosa escrita’). Los principios teóricos de la holografía fueron desarrollados por el físico británico de origen húngaro Dennis Gabor en 1947. La primera producción real de hologramas tuvo lugar a principios de los años sesenta una vez disponible el láser. A finales de los años ochenta se comenzó la fabricación de hologramas en color, así como de hologramas que cubrían desde la región del espectro de las microondas hasta los rayos X. También se crearon hologramas ultrasónicos utilizando ondas de sonido.
Un holograma se diferencia básicamente de una fotografía normal en que no sólo registra la distribución de intensidades de la luz reflejada, sino también la de fases. Es decir, la película es capaz de distinguir entre las ondas que inciden en la superficie fotosensible hallándose en su amplitud máxima, de aquellas que lo hacen con amplitud mínima. Esta capacidad para diferenciar ondas con fases distintas se logra interfiriendo un haz de referencia con las ondas reflejadas.
Así, en uno de los métodos de obtención de hologramas, el objeto se ilumina mediante un haz de luz coherente, un haz en el que todas las ondas se desplazan en fase entre sí y que se genera con un láser. En esencia, la forma del objeto determina el aspecto de los frentes de onda, es decir, la fase con la que la luz reflejada incide en cada uno de los puntos de la placa fotográfica. Parte de este mismo haz láser se refleja simultáneamente en un espejo o prisma y se dirige hacia la placa fotográfica; este haz se denomina haz de referencia. Los frentes de onda de este último, al no reflejarse en el objeto, permanecen paralelos respecto del plano y producen un patrón de interferencia con los frentes de onda de la luz reflejada por el objeto. Si éste es un punto, por ejemplo, los frentes de onda del haz reflejado serán esféricos; el patrón de interferencia producido en la película estarán entonces formados por círculos concéntricos, reduciéndose el espacio entre los círculos a medida que aumenta el radio.
El patrón de interferencia producido por un objeto más complicado también será mucho más complejo, por lo que la simple inspección del holograma resultante sólo descubrirá un complicado patrón de estructuras oscuras y claras que aparentemente no guardan ninguna relación con el objeto original. Sin embargo, si se contempla el holograma bajo luz coherente, se hará visible el objeto grabado; y si se contempla el holograma desde diferentes ángulos, el objeto también se ve desde distintos ángulos. El efecto tridimensional se consigue porque el holograma reconstruye en el espacio los frentes de onda que originalmente fueron creados por el objeto.
Este mecanismo se puede entender a la vista del ejemplo del holograma de un punto. La luz coherente que incide en los círculos concéntricos del holograma sufre una difracción sobre una rejilla de difracción. El ángulo del haz aumenta con la distancia respecto del centro de los anillos concéntricos, reconstruyendo así los frentes esféricos de onda, y el espectador percibe el punto en la misma ubicación relativa en la que se hallaba el punto real al construir el holograma. Los frentes de onda de los objetos más complejos se reconstruyen de la misma forma. La distribución de intensidades de la luz reflejada se registra en el grado de oscurecimiento de los patrones de interferencias de la película.

• Tipos de Hologramas

La holografía ha progresado de una manera impresionante y rápida debido a la gran cantidad de aplicaciones que se le están encontrando día a día. Los hologramas se pueden ahora hacer de muy diferentes maneras, pero todos con el mismo principio básico. Los principales tipos de hologramas son los siguientes:

a) Hologramas de Fresnel . Éstos son los hologramas más simples, tal cual se acaban de describir e la sección anterior. También son los hologramas más reales e impresionantes, pero tienen el problema de que sólo pueden ser observados con la luz de un láser.

b) Hologramas de reflexión . Los hologramas de reflexión, inventados por Y N. Denisyuk en la Unión Soviética, se diferencian de los de Fresnel en que el haz de referencia, a la hora de tomar el holograma, llega por detrás y no por el frente, como se muestra en la figura 39. La imagen de este tipo de hologramas tiene la enorme ventaja de que puede ser observada con una lámpara de tungsteno común y corriente. En cambio, durante la toma del holograma se requiere una gran estabilidad y ausencia de vibraciones, mucho mayor que con los hoogramas de Fresnel. Este tipo de holograma tiene mucho en común con el método de fotografía a color por medio de capas de interferencia, inventado en Francia en 1891 por Gabriel Lippmann, y por el cual obtuvo el premio Nobel en 1908.

c) Hologramas de plano imagen . Un holograma de plano imagen es aquel en el que el objeto se coloca sobre el plano del holograma. Naturalmente, el objeto no está físicamente colocado en ese plano, pues esto no sería posible. La imagen real del objeto, formada a su vez por una lente, espejo u otro holograma, es la que se coloca en el plano de la laca fotográfica. Al igual que los hologramas de reflexión, éstos también se pueden observar con una fuente luminosa ordinaria, aunque sí es necesario láser para su exposición.

d) Hologramas de arco iris . Estos hologramas fueron inventados por Stephen Benton, de la Polaroid Corporation, en 1969. Con estos hologramas no solamente se reproduce la imagen del objeto deseado, sino que además se reproduce la imagen real de una rendija horizontal sobre los ojos del observador. A través de esta imagen de la rendija que aparece flotando en el aire se observa el objeto holografiado, como se muestra en la figura 40. Naturalmente, esta rendija hace que se pierda la tridimensionalidad de la imagen si los ojos se colocan sobre una línea vertical, es decir, si el observador está acostado. Ésta no es una desventaja, pues generalmente el observador no está en esta posición durante la observación. Una segunda condición durante la toma de este tipo de hologramas es que el haz de referencia no esté colocado a un lado, sino abajo del objeto.

Este arreglo tiene la gran ventaja de que la imagen se puede observar iluminando el holograma con la luz blanca de una lámpara incandescente común. Durante la reconstrucción se forma una multitud de rendijas frente a los ojos del observador, todas ellas horizontales y paralelas entre sí, pero de diferentes colores, cada color a diferente altura. Según la altura a la que coloque el observador sus ojos, será la imagen de la rendija a través de la cual se observe, y por lo tanto esto definirá el color de la imagen observada. A esto se debe el nombre de holograma de arco iris.

e) Hologramas de color . Si se usan varios láseres de diferentes colores tanto durante la exposición como durante la observación, se pueden lograr hologramas en color. Desgraciadamente, las técnicas usadas para llevar a cabo estos hologramas son complicadas y caras. Además, la fidelidad de los colores no es muy alta.

f) Hologramas prensados. Estos hologramas son generalmente de plano imagen o de arco iris, a fin de hacerlos observables con luz blanca ordinaria. Sin embargo, el proceso para obtenerlos es diferente. En lugar de registrarlos sobre una placa fotográfica, se usa una capa de una resina fotosensible, llamada Fotoresist,depositada sobre una placa de vidrio. Con la exposición a la luz, la placa fotográfica se ennegrece. En cambio, la capa de Fotoresist se adelgaza en esos puntos. Este adelgazamiento, sin embargo, es suficiente para difractar la luz y poder producir la imagen. Dicho de otro modo, la información en el holograma no queda grabada como un Sistema de franjas de interferencia obscuras, sino como un sistema de surcos microscópicos.

El siguiente paso es recubrir el holograma de Fotoresist, mediante un proceso químico o por evaporación, de un metal, generalmente níquel. A continuación se separa el holograma, para que quede solamente la película metálica, con el holograma grabado en ella. El paso final es mediante un prensado con calor: imprimir este holograma grabado en la superficie del metal, sobre una película de plástico transparente. Este plástico es el holograma final.

Este proceso tiene la enorme ventaja de ser adecuado para producción de hologramas en muy grandes cantidades, pues una sola película metálica es suficiente para prensar miles de hologramas. Este tipo de hologramas es muy caro si se hace en pequeñas cantidades, pero es sumamente barato en grandes producciones.

g) Hologramas de computadora . Las franjas de interferencia que se obtienen con cualquier objeto imaginario o real se pueden calcular mediante una computadora. Una vez calculadas estas franjas, se pueden mostrar en una pantalla y luego fotografiar. Esta fotogralía sería un holograma sintético. Tiene la gran desventaja de que no es fácil representar objetos muy complicados con detalle. En cambio, la gran ventaja es que se puede representar cualquier objeto imaginario. Esta técnica se usa mucho para generar frentes de onda de una forma cualquiera, con alta precisión. Esto es muy útil en interferometría.

Matematica, Algebra y Logica Formal en Sistemas

1.      Introducción

Las Ciencias Matemáticas y la Informática forman un núcleo de actividades científicas fundamentales para el desarrollo científico y económico-social del país. Tienen una característica fundamental por ser componentes importantes de la educación y las actividades de todas las disciplinas científicas, tanto exactas como naturales y sociales, y tecnológicas. El crecimiento de la producción y de los servicios requiere la incorporación de los conocimientos y métodos que se desarrollan tanto por la Matemática Aplicada como la Informática.

Este capítulo incluye la sección sobre Matemática Aplicada, que se refiere a las investigaciones matemáticas vinculadas al desarrollo de otras disciplinas científicas y tecnológicas.

  1. 2.      Objetivos

Al aceptar, la primera cuestión que nos planteamos fue cómo presentar las implicaciones y relaciones que existen entre matemáticas e informática? o qué aspectos de esas relaciones exponer?

Como respuesta vamos a destacar al concepto de “cálculo” o “cómputo” como la relación fundamental entre matemática e informática. Rescatar esta relación no es tarea facil en un momento como el actual, en el que todo el mundo usa la informática apoyándose en una máquina misteriosa (mágica caja negra), pero en la que, en su empleo, no se percibe directamente la presencia de las matemáticas, y en la que su nombre “ordenador” (ejecuta ordenes) oculta su origen, de forma diferente a como lo dejaba patente en las épocas en las que se llamaba “computadora” (realiza cómputos o cálculos).

En efecto, considerada como máquina de utilidad general, está muy extendido el uso directo, por gran número de personas, de los procesadores de texto, que se comportan como máquinas de escribir sofisticadas y que ayudan al almacenamiento y archivo de los documentos así generados. Tambien es cada vez más común el uso del correo electrónico (como un híbrido entre la máquina de escribir y el teléfono), y de otras aplicaciones de Internet que, aunque potentes y misteriosas, tampoco se vinculan directamente con las matemáticas.

También en las distintas profesiones se utilizan, cada vez más y más, los ordenadores y las aplicaciones informáticas; pero estas aplicaciones solo en profesiones muy especificas utilizan explícitamente el cálculo numérico, la estadística y otras funcionalidades matemáticas. En la mayor parte de las profesiones se utilizan aplicaciones orientadas a las bases de datos, al tratamiento de imagen, a la gestión administrativa, y aunque en todas ellas se utilizan algoritmos matematicos muy complejos, estos no se perciben y por tanto no aparecen explicitamente las matemáticas empleadas en ellos, o lo hace solamente en sus aspectos mas elementales, como puede ser la aritmética contable.

Todo el mundo sabe que hay aplicaciones informáticas a la ingeniería, y a otras disciplinas en las que las matemáticas juegan un papel importante, pero precisamente por eso se estima que esas aplicaciones más tienen que ver con la matemática que con la informática propiamente dicha.

2.1              Objetivo General

Pero en que consiste la informática propiamente dicha?

Por un lado, forman parte de la informática las propias máquinas: los ordenadores; esas cajas negras provistas de propiedades portentosas, que se han llegado a llamar, incluso, “cerebros electrónicos”, y que aparecieron rodeadas de una aureola (que en alguna medida aún conservan) que otras máquinas no tienen.

Por otro lado, forma también parte de la informática algo que se sabe es esencial para que los ordenadores funcionen, como son los programas. Los programas son textos escritos en determinados lenguajes comprensibles por la máquina, llamados lenguajes de programación, para que una vez interpretados por el ordenador realicen posteriormente su ejecución. Para escribir esos programas se requiere de unos especialistas informáticos que conozcan los lenguajes propios de las máquinas.

Nos estamos refiriendo a los dos aspectos generales de la informatica; es decir a la parte material (hardware, o ferretería) y a la parte inmaterial (software, o parte blanda o impalpable). Nos estamos refiriendo a los dos pilares que fundamentan la informática, y en los que se apoya su tercer elemento formado por las aplicaciones.

Pero, de que forma, tanto el hardware como el software, son resultado, consecuencia, y aplicación de la matemática? Intentaremos, dar respuesta a esta pregunta, o al menos a delinear, según mi apreciación, cómo el vínculo fundamental que relaciona a la informática con la matemática es la noción de cálculo.

2.2              Objetivo Especifico

  1. 3.      Desarrollo
  • La matemática como cálculo.

No vamos a entrar a caracterizar a la matemática, ni a intentar dar una definición parcial que sirva siquiera para los fines de esta conferencia, diremos simplemente que uno de los resultados y finalidades de la matemática es el cálculo. Es decir, la matemática busca formas razonadas de procedimientos seguros mediante los que podamos contar, medir, y obtener los resultados de ciertas serie de operaciones que nos permitan predecir algunos acontecimientos que puedan ocurrir en la naturaleza.

Al aludir a formas razonadas nos estamos refiriendo a la reflexión, al pensamiento, a la lógica; al aludir a procedimientos seguros nos estamos refiriendo al cálculo.

Como entendemos que esta última caracteristica de la matemática es el fundamento de la informática, dedicaremos nuestra conferencia a precisar lo que se entiende por cálculo. Y al ir avanzando en la precisión de esta idea, iremos percibiendo lo que, a mi juicio, es el vínculo esencial entre matemáticas e informática.

Un cálculo es un procedimiento que nos dice como debemos aplicar unas reglas, construidas a partir de operaciones sencillas sobre unos datos conocidos, para obtener el resultado buscado.

En un cálculo los datos no siempre son numéricos, como suele creerse, pueden ser de otro tipo, por ejemplo, geométricos (puntos, rectas, figuras, …), letras o palabras, oraciones o proposiciones lingüísticas o lógicas. Estos datos corresponden a magnitudes, u otros conceptos, a cuya definición dedica la matemática gran esfuerzo.

Las reglas y operaciones deben ser conocidas y sencillas, en el sentido de que cualquiera persona con un pequeño entrenamiento pueda realizarlas (de aquí la idea de automatismo como opuesta a la de reflexión o de pensamiento). También puede considerarse la tarea de definir esas operaciones, y estudiar sus propiedades, como una de las actividades a las que se ha dedicado y dedica la matemática.

La historia del cálculo es tan vieja como la historia de la propia matemática. Como todo el mundo sabe la palabra cálculo significa piedrecilla, y con ella se alude al procedimiento matemático mas antiguo que se conoce: contar. También se usan piedrecillas (en los conjuntos de piedrecillas ya esta la idea de número) en procedimientos mas complejos, como la suma y la resta. El ábaco chino, que todavía se usa en algunas colectividades, es un superviviente, que tal vez viene desde épocas prehistóricas, de los primitivos usos de los “cálculos” . Así, el ábaco es el primer instrumento utilizado en el largo camino de la computación.

  • El álgebra y los algoritmos.

Hemos dicho que una de las características de los procedimientos de cálculo es que sus reglas han de ser sencillas y fáciles expresar para permitir su aprendizaje y la utilización de las mismas sin mayor esfuerzo.

Los cálculos aritméticos pronto alcanzaron cierta complejidad, y describirlos en el lenguaje corriente o natural hacia difícil su descripción y por tanto su transmisión y utilización, sobre todo cuando se trataba de exponer métodos de resolución para familias enteras de problemas.

Para superar esta dificultad se vio cada vez como más necesario apoyarse en símbolos y notaciones mediante los cuales definir un leguaje (distinto del natural empleado hasta entonces), que fuese más adecuado para expresar y describir las ideas y los procedimientos matemáticos. Así apareció y se fue desarrollando el álgebra, como lenguaje formal, y la idea de algoritmo, o cálculo algebraico, como automatismo para la resolución de problemas. Esta formalización de la aritmética se va depurando, desde los primeros tratados de la “regla de la cosa”, hasta alcanzar su madurez mediante las expresiones algebraicas, que permitían describir con sencillez las operaciones del álgebra. Utilizando las expresiones algebraicas es mas facil encontrar y dar las fórmulas para la resolución de ecuaciones algebraicas de los grados inferiores. Estas fórmulas sintetizaban algoritmos, es decir procedimientos automáticos mediante los cuales a partir de los datos del problema obtener la solución, o dicho en términos matemáticos, a partir de los coeficientes de la ecuación obtener sus raíces.

En efecto, estas formulas indican el orden en que deben realizarse ciertas operaciones con los coeficientes para obtener el resultado. Estas operaciones son, en el álgebra clásica (el álgebra del siglo XVI) , la suma, la resta, el producto, la división y la raíz cuadrada, y se decía “resolver ecuaciones por radicales” cuando se utilizaban estas formulas o los algoritmos por ellas representados, en las que la raíz cuadrada jugaba un papel esencial en las mismas.

Con este tipo de algoritmos con radicales, se obtuvieron, en el siglo XVI, procedimientos “automáticos” para resolver tambien las ecuaciones de tercer y cuarto grado. Pero no pudieron encontrarse algoritmos de este tipo para ecuaciones algebraicas de grado superior al cuarto , lo que significó un acicate para buscar otros procedimientos de cálculo.

Mucho del esfuerzo matemático de los siglos XVII y XVIII, se dedicó a reducir el pensamiento a cálculo, es decir buscar la forma de realizar procedimientos efectivos mediante los que obtener de forma “automática” (no depender de la feliz idea) la resolución de problemas.

Aunque esa pretensión no se consiguió, en esta búsqueda se desarrolló el cálculo analítico o formal (cálculo infinitesimal de Newton (1642-1727) y de Leibniz (1646-1716), la geometría analítica de Descartes (1596-1650)) y cálculo numérico (como fueron los desarrollos en serie para realizar el cálculo efectivo de funciones matemáticas, uno de cuyos principales artífices fue Euler (1707-1783)).

–          El Cálculo de Proposiciones.

Una vez que hemos visto, con mayor generalidad, lo que se entiende por un cálculo, veremos que esta noción se aplica, no solo a las operaciones geométricas, numéricas y algebraicas, sino también a las operaciones lógicas. Para ello demos unas ideas sobre en que consiste el cálculo de proposiciones, tambien conocido como álgebra de Boole, y como puede materializarse este cálculo lógico mediante máquinas. Esta teoría matemática es el fundamento de los actuales ordenadores electrónicos y por tanto uno de los aspectos en que de forma más directa esta vínculada la informática con la matemática. Más adelante veremos como la lógica formal, o lógica matemática, también es el fundamento de los lenguajes de programación: otro de los pilares en los que se apoya la informática.

En que consiste el cálculo de proposiciones?

Una proposición es una frase o expresión a la que se puede asignar el valor lógico de verdadero o de falso; si toma el valor de verdadero se la llama proposición verdadera y si toma el valor de falso se la llama proposición falsa. Por ejemplo, la proposicion

5 \end{displaymath}” type=”#_x0000_t75″ o:spid=”_x0000_i1045″>

es una proposición falsa, y la proposicion 

es una proposición verdadera.

  • La formalización como cálculo.

La extensión del calculo aritmético, al álgebra clásica, al álgebra de las proposiciones y a otras lógicas, ha conducido a considerar a alguno de los aspectos formales de la matematica como cálculo, y esto ha tenido gran importancia para la definición de los sistemas formales deductivos; en particular, en la formalización de los lenguajes, no solo matemáticos (Metamatemática), sino de otros tipos de lenguajes: los lenguajes formales (o artificiales); e incluso del lenguaje natural como lo está intentando la moderna lingüística y la lingüística computacional.

La contribución de Chomsky al desarrollo de la lingüística, desde que apareció, en 1957, su Syntactic Structures , ha sido muy importante en los lenguajes naturales y también, de forma muy patente, en los lenguajes de programación. Las gramáticas formales, las gramáticas generativas y transformacionales, han dado nuevas herramientas para estos estudios.

–          Lenguajes Formales.

Llamamos lenguaje construido con el alfabeto , a cualquier subconjunto L de *. Diremos que un lenguaje es finito, si es finito el número de cadenas de que consta; en otro caso diremos que es infinito. El lenguaje vacio no tiene ninguna cadena (que no debe confundirse con el lenguaje que solo tiene la cadena vacia).

Una vez dada esta definición tan general de lenguaje, el problema inicial que se nos presenta es como distinguir con precisión las cadenas que pertenecen a un lenguaje L de aquellas que no pertenecen. Hay dos formas de hacerlo: una consiste en dar las reglas mediante las cuales construir las cadenas que forman el lenguaje, y otra es dar un procedimiento para determinar si una cadena dada pertenece o no al lenguaje considerado. En el primer caso se trata de definir las gramáticas formales, o generadores, y en el otro los autómatas o reconocedores.

Para fijar un poco las ideas de lo que se entiende por lenguaje definido por una gramática formal, demos ligeramente algunos detalles técnicos. Una gramática es un procedimiento finito para formar o generar cualquiera de todas las posibles cadenas de un lenguaje.

–          Sistemas Formales.

La pretensión de formalización del pensamiento, que se inició con la osadía de Boole al pretender haber encontrado “las leyes del pensamiento”, dió origen a un interés renovado por la lógica y a la aparición de la lógica matemática (Morgan, Frege, Russell, Hilber), que se inicia en la segunda mitad del siglo XIX, y que incide de forma determinante en la moderna fundamentación de la matemática, y en el desarrollo de la teoría de conjuntos (Peano, Cantor).

La idea de formalización de una teoría es la que brevemente exponemos a continuación.

Definimos a un sistema formal, como una cuádrupla

donde sus elementos los interpretamos como sigue:

:

es un alfabeto.

:

es un subconjunto recursivo de , llamado conjunto de fórmulas ( *).

:

es un subconjunto recursivo de , cuyos elementos reciben el nombre de axiomas. .

:

es un conjunto finito de reglas de inferencia, de la forma , cuyas variables tomarán valores en . En estas reglas se dice que la fórmula se obtiene a partir de las mediante , o que es consecuencia de .

  • Calculabilidad

Para dar respuesta a estas preguntas lo primero que hay que estudiar, y definir con precisión, es que se entiende por cálculo, y por algoritmo, conceptos estos que se han venido utilizando desde el Renacimiento, sin ser sometidos a la necesaria crítica, (como hemos expuesto en las paginas anteriores), pero que a partir de los descubrimientos de Gödel, era imprescindible que se aclararan, pues ya se había perdido definitivamente la esperanza, acariciada por Raimundo Lulio, y también pretendida por Leibniz, de que ante cualquier situación conflictiva, en la que se presentase una discrepancia entre personas, esta se resolviese, en vez de utilizar discusiones acaloradas, mediante el cálculo (calcular en lugar de discutir).

En los años 30 del siglo XX, varios lógicos matemáticos, inician la tarea de definir con precisión lo que se entiende por calculabilidad, profundizando en las ideas de algoritmo y de función calculable, dando como resultado los conceptos de funciones recursivas, y de máquinas de Turing. En el primer caso se trata de encontrar las funciones calculables más simples posibles a partir de las cuales por composición y por recursión se van obteniendo las demás funciones que pueden ser efectivamente calculables o computables. En el segundo caso se trata de definir máquinas compuestas por conjuntos de instrucciones de la mayor sencillez posible con la finalidad de obtener de forma efectiva el resultado de una función calculable.

–          Maquinas de Turing.

Otra forma de caracterizar la clase de las funciones computables se hace mediante las llamadas máquinas de Turing. Estas son máquinas formales, es decir sin cables ni componentes físicos. Su finalidad es definir los cálculos a partir de las operaciones más sencillas posibles, y utilizando las cuales calcular efectivamente funciones dadas. Las funciones que así pueden realizarse se llaman funciones calculables o computables.

Este tipo de máquina consta hipoteticamente de una unidad de control capáz de interpretar las instrucciones que reciba, y de una cabeza lectora que permite leer el contenido de una de las casillas en que está dividida una memoria lineal, ilimitada en ambas direcciones de sus extremos.

  1. 4.      Conclusión
  • Las máquinas automáticas

Hasta aquí se dio un sucinto panorama de la evolución del papel jugado por la matemática en los fundamentos y orígenes de la informática. Como se vio, este papel ha consistido en la búsqueda de automatismos de cálculo, desarrollando para ello aparatos teóricos cada vez más potentes.

Aunque entre matemática e informática existen muchos otros vínculos, en el marco de una conferencia solo se puede aludir a alguno de los aspectos que relacionan a ambas disciplinas. Por ejemplo, también debería haberse tenido en cuenta el aspecto reciproco, es decir, considerar que si la matemática ha sido el fundamento teórico que ha permitido la aparición y desarrollo de la informática, también la informática brinda ahora un potente instrumento de cálculo que facilita el estudio de ciertos problemas matemáticos que hasta ahora no habian podido abordarse con éxito, como ocurre, entre otros muchos, con varios problemas de topología y de teoría de números. Este tema de la informática como auxiliar en la investigación de algunos problemas matemáticos, es un tema importante que requiere una atención específica.

Pero no queremos terminar sin subrayar el hecho, que resulta realmente sorprendente, de cómo estos estudios teóricos encaminados a encontrar procedimientos de cálculo se hayan materializado en máquinas, con cierta autonomía para actuar, que pueden permitir al hombre liberarse de los trabajos repetitivos y mecanicos, (características estas que son las que mejor definenen a los cálculos), para poder dedicarse a tareas creativas mas propias de la complejidad de la naturaleza humana, alcanzada tras millones de años de una evolución natural todavía inconclusa.

Los automatismos, que eran realizados al principio directamente por el hombre, han ido materializandose paulatinamente hasta convertirse en herramientas cada vez mas participativas, que han ido aportando, con eficacia creciente, su colaboracion en la realización de esos cálculos. En esta evolución de la materialización de los procedimientos se ha llegado, a mediados del siglo XX, a la construcción de máquinas en las que cada vez intervienen menos, de forma directa, las personas.

En efecto, aunque a lo largo de nuestra conferencia hemos aludido varias veces a algunos dispositivos físicos utilizados por el hombre como herramienta de cálculo (ábaco, regla y compás, máqinas aritméticas, regla de cálculo, …), no podemos considerar todavía a estos dispositivos como máquinas automáticas, ya que ninguno de ellos funciona sin que el hombre opere directamente sobre los mismos.

Los primeros ejemplos que suelen citarse como dispositivos físicos automáticos (entendiendo aquí automatismo como la ausencia de intervención humana en la ejecución de un proceso) son el telar de Jaquard (1752-1834), y el regulador de Watt (1736-1819). Aquél, por que es la primera máquina capaz de leer información previamente grabada en una tarjeta perforada (dispositivo digital) y realizar por sí misma las operaciones indicadas en esa información; y el segundo porque es capáz de medir directamente una magnitud física (la presión del vapór de la caldera) mediante un dispositivo analógico, y cambiar su comportamiento de acuerdo con esa medida.

Este es un nuevo enfoque del concepto de automatismo, en el que lo característico es la existencia de máquinas con capacidad para recibir información y de ajustar su comportamiento de acuerdo con la información recibida . La importancia de este nuevo concepto consiste en el decubrimiento de sistemas, tanto digitales como analógicos, en los que que la información puede depositarse, circular y ser interpretada por y en dispositivos materiales fuera del sistema nervioso humano. Han aparecido en torno a este concepto dos nuevas disciplinas: la Teoría de la Información y la Cibernética. La cibernética es una de las disciplinas que estudia el comportamiento de estos sistemas de información, en los que la realimentación y homeostasis son dos de los factores siempre presentes en los mismos. La teoría de la información estudia los aspectos matematicos de la informacion. Estas nuevas disciplinas que han abierto nuevos campos de estudio a la matemática, y la relacionan con la informática, considerada esta última en su sentido más amplio.

Asi se llega a percibir que la información se comporta como un elemento físico, material, externo al hombre, análogo a la materia o a la energía, y este hecho, de aparición tan reciente (apenas 200 años), es de una transcendencia tal, que está modificando de forma radical la estructura de las sociedades humanas. En estas modificaciones están incidiendo de forma muy notable los sistemas cibernéticos , de complejidad creciente, que podríamos agrupar en dos grandes categorías y denominar simbólicamente a cada una de ellas como maquina sapiens y maquina faber, así como las redes de comunicación que los interconectan.

La actividad inteligente del hombre le ha conducido al descubrimiento de cálculos y algoritmos para no tener que pensar en como actuar cada vez en que se presentan las mismas condiciones, de manera que una vez pensado el procedimiento este se reduce a una sucesión de reglas que aplicadas correctamente nos llevan con certeza a obtener el resultado deseado. Ya hemos visto como la materialización de estos procedimientos nos han conducido a la aparición del ordenador y de otros dispositivos automáticos. Durante siglos el hombre era el único capáz de operar estos instrumentos. Solo desde hace unas decadas puede decirse que esos instrumentos y dispositivos han alcanzado un nivel de desarrollo suficiente para poder interpretar directamente la informacion y los algoritmos y, de acuerdo con ellos, actuar sin la atención humana directa. El ordenador es el máximo exponente de este tipo de dispositivos, aunque no el único ni será el último. Pero estos dispositivos solo actuan sobre información, solo es información lo que transforman y transportan. Esta característica de este tipo de máquinas y dispositivos es la nos permite denominarla, abusando evidentemente de la expresión, como máquina sapiens. Estas maquinas facilita el acceso a la información y a la cultura y permite la cooperación intelectual de las personas.

Pero el hombre no solo actúa sobre la información, actúa también sobre la materia, la transforma y la transporta, y para ello necesita energía. En la transformación de la materia el hombre ha usado de forma directa su energía corporal, su fuerza física, así como de la información que como individuo poseía sobre los procesos de transformación. También desde épocas remotas recurrió a pensar procedimientos para incrementar el resultado de su fuerza, pensamiento que fue materializandose en herramientas, instrumentos y otros dispositivos que se convirtieron en máquinas productivas cada vez mas elaboradas. A la clase de esta gran familia de dispositivos productivos es a la que podemos llamar maquina faber.

La conjunción entre estas dos clases de máquinas ha hecho aparecer otras de nuevo tipo (nos referimos al robót, que puede considerarse como un ordenador dotado de fuerza y movilidad) que ya desde los años 50 se preconizaba como el elemento básico para el desarrollo de la automación, es decir de la producción automática total. Este vaticinio no se ha producido, pero no por dificultades técnicas insuperables, sino para evitar los cambios sociales que esos cambios tecnológicos acarrearían.

Vemos, pues, como el hombre en su desarrollo intelectual, y a lo largo de su producción técnica y científica, especialmente matemática, ha ido creando dispositivos para liberarse de los trabajos repetitivos y mecánicos, simbolizados por la informática, para alcanzar así la posibilidad de dedicarse a tareas más propiamente humanas.

  1. 5.      Recomendación

Es necesario que se tome conciencia de la necesidad creciente de todas las ciencias en volcarse al uso de Matemática en la formalización de sus conceptos, lo cual requiere de la formación de matemáticos capaces de integrarse a grupos de investigación multidisciplinarios, traducir los problemas al lenguaje formal, analizarlos utilizando o creando herramientas matemáticas adecuadas, interactuando constantemente con los especialistas de otras disciplinas. Por consiguiente se necesita con urgencia una política activa de los departamentos de Matemática para impulsar el estudio y la investigación en Matemática Aplicada, considerada como rama de la Matemática, del mismo nivel de seriedad que la Matemática pura, y con una fuerte interrelación con computación. Los matemáticos aplicados deben ser formados con el mismo entrenamiento riguroso en Matemática que los matemáticos puros, pero deberán, además, considerarse ciertas pautas especiales referidas a Matemática Aplicada. Estas son:

a) Para un matemático aplicado, es indispensable haber tenido cursos de análisis numérico (álgebra lineal numérica, resolución numérica de ecuaciones diferenciales, etc.) y de optimización con y sin restricciones;

b) Análogamente, un matemático aplicado deberá tener en su carrera cursos de otras ciencias exactas y naturales, conjuntamente con los estudiantes de estas ciencias, para comprender la metodología de la ciencia experimental;

c) El matemático aplicado deberá tener una sólida base en computación;

d) El matemático aplicado deberá tener entrenamiento en modelización y experimentación numérica, con el cual se acostumbrará al hecho de que, en muchos casos, la Matemática Aplicada tiene aspectos de ciencia experimental en la cual la computadora hace las veces de laboratorio (ver por ejemplo las secciones de Ciencias de la Atmósfera, Oceanografía y Cambio Global).

Por otra parte, debe haber una política activa de contacto con empresas, estatales y privadas, para, por un lado, convencer a las empresas de que la Matemática Aplicada les puede ser muy útil, y, por el otro, ir creando en los jóvenes matemáticos una cultura de integración con el medio productivo. Este no es un proceso fácil: basta ver las dificultades que se tuvieron en Oxford para llevar adelante propuestas de “Matemática industrial” con empresas privadas, comenzando con Imperial Chemical Industries (ICI), pese al prestigio tanto de Oxford como de ICI. Debe destacarse que, pese a las dificultades que se enfrentaron, el proyecto fue exitoso.

Por último, como primeras medidas para impulsar el desarrollo de la Matemática Aplicada se puede proponer lo siguiente:

a) Otorgamiento de becas de doctorado del CONICET en Matemática Aplicada. El número inicial no puede ser muy numeroso, dado que hay pocos posibles directores de tesis y pocos estudiantes de Matemática interesados (y con los mínimos conocimientos indispensables de análisis numérico, computación, optimización, etc.), pero deberán ir en aumento en los años siguientes. Por ejemplo, empezar con seis becas a nivel nacional e ir aumentando el número anualmente. Es importante que esta información se difunda entre los estudiantes de Matemáticas (y de otras disciplinas), como para ir creando la sensación de que es política del CONICET (y eventualmente de la Agencia) considerar durante varios años a la Matemática Aplicada área de carencia a ser protegida. Naturalmente, no es necesario restringir el beneficio de estas becas a graduados en Matemática : no tiene nada de malo que un físico o un licenciado en computación, por ejemplo, terminen haciendo su doctorado en Matemática Aplicada.

b) Establecer convenios con grandes empresas para enviar, primero pasantes y luego becarios de posdoctorado, de modo que CONICET y cada empresa financien en determinadas proporciones la respectiva pasantía o posdoctorado. Esto contribuirá a que las empresas noten que los matemáticos aplicados les son útiles, y puedan eventualmente incorporarlos. En general, no hay nada mejor que la existencia en el ámbito de una empresa de uno o más doctores en ciencia o ingeniería para favorecer la relación universidad-empresa, y esto se aplica naturalmente también a los matemáticos aplicados.

c) Otorgar subsidios del CONICET y la Agencia para proyectos de investigadores que incluyan estudiantes de doctorado en Matemática Aplicada en dichos proyectos.

  1. 6.      Bibliografía

Profesor D. Federico Gaeta

  1. 7.      Referencia de Internet

http://biblioweb.sindominio.net

http://es.wikipedia.org

http://www.njit.edu

  1. 8.      Anexos

Campos de las Ciencias de la Computación

  • Fundamentos matemáticos

–          Criptografía

Algoritmos para proteger datos privados, incluyendo el cifrado

–          Teoría de grafos

Son elementales para las estructuras de almacenamiento de datos y para los algoritmos de búsqueda.

–          Lógica matemática

–          Teoría de tipos

Análisis formal de los tipos de los datos, y el uso de estos para entender las propiedades de los programas, en particular la seguridad de los mismos.

  •  Teoría de la computación

–          Teoría de la computación

–          Teoría de autómatas

–          Teoría de la computabilidad

–          Teoría de la complejidad computacional

Límites fundamentales (en especial de espacio en memoria y tiempo) de los cómputos.

  •  Algoritmos y estructuras de datos

–          Análisis de algoritmos

–          Algoritmos

Procesos formales usados para los cómputos, y eficiencia de estos procesos.

–          Estructuras de datos

Organización y manipulación de los datos

  • Lenguajes de programación y compiladores

–          Compiladores

Formas de traducir programas computacionales, usualmente a partir de lenguajes de alto nivel a lenguajes de bajo nivel.

–          Teoría de lenguajes de programación

Lenguajes formales para expresar algoritmos y las propiedades de estos lenguajes.

  • Bases de datos

–          Minería de datos

Estudio de algoritmos para buscar y procesar información en documentos y bases de datos; muy relacionada con la adquisición de información.

  •  Sistemas concurrentes, paralelos y distribuidos

–          Programación concurrente

Teoría y práctica de cómputos simultáneos y computación interactiva.

–          Redes de computadoras

Algoritmos y protocolos para comunicar eficientemente datos a través de largas distancias, incluye también la corrección de errores.

–          Cómputo paralelo

Computación usando múltiples computadoras y múltiples procesadores en paralelo.

–          Sistemas Distribuidos

Sistemas utilizando múltiples procesadores repartidos en una gran área geográfica.

  • Inteligencia artificial

–          Inteligencia artificial

La implementación y estudio de sistemas que exhiben (ya sea por su comportamiento o aparentemente) una inteligencia autónoma o comportamiento propio, a veces inspirado por las características de los seres vivos. Las ciencias de la computación están relacionadas con la IA, ya que el software y las computadoras son herramientas básicas para el desarrollo y progreso de la inteligencia artificial.

–          Razonamiento automatizado

–          Robótica

Algoritmos para controlar el comportamiento de los robots.

–          Visión por computador

Algoritmos para extraer objetos tridimensionales de una imagen bidimensional.

–          Aprendizaje Automático

  •  Gráficos por computador

–          Computación gráfica

Algoritmos tanto para generar sintéticamente imágenes visuales como para integrar o alterar la información visual y espacial tomada del mundo real.

–          Procesamiento digital de imágenes

Por ejemplo para sensores remotos.

–          Geometría Computacional

Por ejemplo algoritmos veloces para seleccionar sólo los puntos visibles en un poliedro visto desde cierto ángulo, usado en motores 3D

  •  Computación científica

–          Bioinformática

–          Computación Cuántica

Paradigma de computación basado en la Mecánica Cuántica

Y se ha habilitado nuevos tipos de investigación científica, como la física computacional, la química computacional y la biología computacional, entre otras (Constable 1997).

Atte: ASDLC