Computadoras Holográficas

1. Introducción

En la actualidad, se cuenta con hologramas generados por computadoras y de hologramas generados químicamente de la misma manera, por medio de la configuración de franjas, tienen la información de la forma y la estructura en que se esparce luz. Para observar este tipo de hologramas, también es necesario que se reconstruyan un haz de luz coherente proveniente de un láser. Algunos tipos de hologramas son de: Fresnel, Fraunhofer, Imagen, y de Fourier. En la actualidad, con el desarrollo de las computadoras y del software científico, y con la ayuda de algoritmos de transformadas discretas de Fourier o de Fresnel es posible diseñar fácilmente hologramas. A menudo, se usa el algoritmo de la transformada rápida de Fourier.
Los hologramas generados por computadora ayudan a producir frentes de onda con una amplitud diseñada y una cierta distribución de fase; las aplicaciones de dichos sistemas se aplican en exploración por láser, en filtros espaciales ópticos, en pruebas de superficies ópticas y sobre todo como memorias holográficas. Para realizar los hologramas de Fourier, se graba el patrón de interferencia entre dos haces provenientes de un láser. Uno llamado haz de referencia y otro que ilumina al objeto y pasa por una lente positiva (convexa) llamado haz objeto. El haz objeto que hace interferencia es la transformada de Fourier del objeto que se forma en el plano de frecuencias de la lente (o también conocido como plano de Fourier).

2. Objetivos

El objetivo principal del tema de Computadoras Holográficas, está basada en el reduccionismo que día a día se ve como influencia en el mundo moderno, especialmente en el mundo tecnológico, como por ejemplo podemos ver que el almacenamiento, en el pasado, un disco duro no podía almacenar mas de 1GB, hoy en día, esta capacidad se ve multiplicada por 1000, y en menor proporción de tamaño a los que se usaba anteriormente; otro ejemplo de la actualidad son las pantallas o monitores, que hoy en la actualidad se fabrican con tecnología LCD o LED, de tal modo la extinción de estos ya está escrita, debido a la evolución de la tecnología, en un futuro no muy lejano estaremos a merced de las computadoras holográficas en el espacio, ya seá por su bajo costo y mayores beneficios, en el cual no se necesitara el uso de componentes físicos, como ser: monitor, teclado, mouse, joystick, etc. Solo bastara un simple computador holográfico, basado en lo que actualmente conocemos como proyector holográfico.
Nuestra opinión personal es que el reduccionismo de la tecnología no morirá, pero sí se desarrollará la consciencia de que para resolver ciertos problemas existe la necesidad de recurrir a un paradigma más avanzado. De la misma manera que la Mecánica de Newton sigue aplicándose en la vida diaria en el 99% de las ocasiones, y la Relatividad sólo se reserva para casos complejos y especiales, el reduccionismo seguirá siendo útil en la mayoría de los casos, pero aquellos sistemas más interesantes y complejos se deberán analizar usando el paradigma holográfico. Después de todo, el universo no es un reloj de cuerda sino más bien un inmenso holograma.

3. Descripción

• Computadoras Holográficas

La holografía es una técnica avanzada de fotografía, que consiste en crear imágenes tridimensionales. Para esto se utiliza un rayo láser, que graba microscópicamente una película fotosensible. Ésta, al recibir la luz desde la perspectiva adecuada, proyecta una imagen en tres dimensiones.
La holografía fue inventada en el año 1947 por el físico húngaro Dennis Gabor, que recibió por esto el Premio Nobel de Física en 1971. Recibió la patente GB685286 por su invención. Sin embargo, se perfeccionó años más tarde con el desarrollo del láser, pues los hologramas de Gabor eran muy primitivos a causa de las fuentes de luz tan pobres que se utilizaban en sus tiempos.
Originalmente, Gabor sólo quería encontrar una manera para mejorar la resolución y definición de las imágenes del microscopio electrónico. Llamó a este proceso holografía, del griego holos, “completo”, ya que los hologramas mostraban un objeto completamente y no sólo una perspectiva.
Los primeros hologramas que verdaderamente representaban un objeto tridimensional bien definido fueron hechos por Emmett Leith y Juris Upatnieks, en Estados Unidos en 1963, y por Yuri Denisyuk en la Unión Soviética.
Uno de los avances más prometedores hechos recientemente ha sido su uso para los reproductores de DVD y otras aplicaciones. También se utiliza actualmente en tarjetas de crédito, billetes y discos compactos, además de su uso como símbolo de originalidad y seguridad.

• Pantallas Holográficas Interactivas

Las pantallas holográficas interactivas consisten en pantallas holográficas, es decir, pantallas que forman las imágenes a partir de la proyección de rayos de luz sobre un soporte de cristal ya sea opaco o transparente, y que a la vez permiten la interactividad, que consiste en dejar que el usuario pueda decidir qué es lo que quiere ver proyectado y modificarlo siempre que quiera con sus manos.

El sistema que usan las pantallas holográficas interactivas consta de tres componentes básicos:

Un proyector.
Un ordenador.
Dos films.

El funcionamiento es el siguiente: el ordenador envía al proyector la imagen a proyectar. El proyector al recibir la señal genera los rayos de luz que inciden sobre el film pantalla generando la imagen holográfica. Finalmente, cuando el usuario entra en contacto con la pantalla y le da instrucciones usando las manos como si fueran el ratón del ordenador, el film membrana táctil capta estos movimientos, genera los impulsos eléctricos correspondientes y los envía al ordenador. El ordenador interpreta los impulsos recibidos y modifica la imagen a proyectar de acuerdo con esta información.

4. Conclusiones

• El Reduccionismo

“La naturaleza de las cosas complejas se reduce a la suma de cosas más simples o fundamentales.”
Esta idea se llama “reduccionismo” y no ha sido hasta hace muy poco que se ha empezado a dudar de su veracidad, pues existen en la naturaleza algunos sistemas complejos que se niegan a ser llevados a sus partes fundamentales tan fácilmente. Entre ellos están los sistemas biológicos conocidos como seres vivos.
En términos técnicos, el reduccionismo nos dice que los sistemas son lineales, y que todos funcionan al modo de los mecanismos de relojería. Podemos ilustrarlo por la manera que un relojero determina como funcionan sus relojes, estudiando cada engranaje y cada piñón, sus torques y transmisiones, de tal forma que sumando sus efectos individuales comprende lo que hace la maquinaria entera. Basta mirar el plano de un reloj y mirar cada pieza para sumar sus efectos y saber cómo funcionará el sistema completo.
En efecto, hay en el universo una infinidad de sistemas que se comportan en forma lineal y que se adaptan fácilmente al reduccionismo. El método científico en sí mismo enseña a analizar las partes para entender el todo.
Sin embargo, existen fenómenos que se oponen fieramente al reduccionismo. De entre los más intrigantes son aquellos de la física de lo extremadamente pequeño. Cuando queremos comprender qué es un electrón, por ejemplo, nos damos cuenta que los fenómenos físicos pueden ser mucho más complejos de lo esperado y que las “partes elementales” de nuestro mundo de relojero parecieran tener propiedades mágicas.
Los fenómenos climáticos, entre otros, se rigen por matemáticas no lineales, que producen comportamientos denominados caóticos, que se niegan sistemáticamente a la aplicación del reduccionismo clásico y que están forzando a los científicos a estudiarlos con otro tipo de paradigmas y mentalidades más abiertas.
Finalmente, existe en el universo un sistema natural que es en extremo complejo y que nos oculta sus secretos porfiadamente. Se trata de un mecanismo no lineal en extremo, que nos se deja reducir a partes elementales. Es el objeto más complejo conocido en el universo y uno de sus productos es la conciencia. Se trata del cerebro humano.

• Un Mundo Holográfico

La invención de la holografía en 1947 por Dennis Gabor afectó profundamente la visión del mundo impuesta por el “reduccionismo”, pues los hologramas podían fraccionarse y cada una de sus partes todavía contenía información suficiente para reproducir la imagen completa. Se perdía resolución, por supuesto, pero el “todo” era claramente reconocible en función de una “parte”.
En la fotografía convencional se almacena un registro punto por punto de la intensidad y color de la luz. Si cortamos la fotografía con una tijera, la zona descartada se pierde para siempre y ya no la podemos recuperar del resto de la imagen. En un holograma, en cambio, lo que se graba no es sólo la intensidad sino que el patrón de interferencia de la luz incidente en cada punto de la imagen con respecto a un láser de referencia. Para hacerlo se usa un rayo de referencia que es combinado con la luz de la escena. Si ambos rayos provienen del mismo láser se crea una interferencia óptica debido a la superposición de ondas de luz. Ese patrón es almacenado en la placa holográfica.
Lo importante aquí es que la información que recibe el observador no está grabada en la placa en un punto único, sino que es toda la placa la cual registra los patrones de interferencias adecuados para reproducir la escena al ser iluminada por un láser, generando una imagen idéntica al original desde cualquier ángulo que se le mire. Ahora bien, si alguien decide cortar un holograma en trozos, cada uno de ellos seguirá reproduciendo la escena completa, sólo que a menor calidad.

• Hologramas Naturales

Desde hace mucho tiempo se sabe que el cuerpo humano también maneja su información de manera distribuida. Cada una de las células porta toda la información genética de un hombre. De manera un tanto misteriosa, el cuerpo se repara continuamente, activando porciones del código genético en ciertas células y no en otras. El control de toda esta actividad es claramente distribuido en todo el organismo, sin existir una unidad central que lo regule. Sistemas como el inmunológico y el nervioso, entre otros, se regulan a la manera de un holograma.

• Mecánica Cuántica

A principios del siglo veinte la ciencia comenzó a darse cuenta que la realidad era mucho más compleja de lo que nunca pensó. La idea que la materia estaba hecha de partículas mínimas se hizo trizas y con ello el reduccionismo sufrió un duro golpe. Trágicamente, este vino del análisis de una partícula que se suponía sólida y mínima: el electrón.
El electrón tiene un comportamiento esquivo. En ocasiones se comporta como una onda y en otras como una partícula. Para entender que era realmente, los físicos se vieron obligados a desarrollar nuevos modelos matemáticos que introdujeron conceptos sorprendentes. Hoy se sabe que un electrón en su órbita se comporta como “una onda de probabilidad”. Vale decir, no se encuentra en una ubicación precisa dentro de la misma y sólo conocemos la probabilidad de que se encuentre en cierto lugar.
Ahora bien, en el mundo cuántico los electrones no son bolitas minúsculas que se desplazan por las órbitas atómicas, sino más bien nubes de probabilidad que ocupan una región del espacio. Si el lector tiene problemas en entender este concepto, no se preocupe, pues no es el único, ya que ha sido un quebradero de cabezas para los mejores físicos del mundo por casi un siglo.
Lo que importa para el tema en cuestión es que los fenómenos cuánticos parecieran ser fenómenos distribuidos y no locales, que funcionan de manera similar a los hologramas y a las redes neuronales. No es extraño entonces que los científicos estén tratando de construir computadoras basadas en fenómenos cuánticos, con las cuales podrían un día imitar no sólo los fenómenos físicos sino que el funcionamiento del propio cerebro. Los computadores cuánticos funcionarían a velocidades inalcanzables por nuestras máquinas convencionales.

• La Hipótesis Holográfica

Todo este torbellino de ideas fue sintetizado por dos científicos notables. El primero fue el físico David Bohm, quien describió por primera vez el paradigma holográfico. Su pensamiento estaba en entera oposición al “reduccionismo” y la idea asociada de que el tiempo, el espacio y la materia son objetos independientes de su medición. Para Bohm, el mundo era complejo e interrelacionado: un objeto holístico al estilo de la metafísica de los místicos. Bohm, además, colaboró con el cirujano Karl Pribram en la elaboración de una teoría de la memoria humana, que la describe como una impresión holográfica. Finalmente Roger Penrose, afamado matemático inglés, en su libro “La Nueva Mente del Emperador” (1988) afirma que la consciencia humana depende de fenómenos cuánticos imposibles de imitar por las computadoras convencionales. Tales fenómenos cuánticos tienen un carácter definitivamente holográfico. De ser cierto, la búsqueda de la consciencia artificial que emprendieron los informáticos hace ya mucho tiempo, tendrá que esperar por el desarrollo de computadores cuánticos.
Finalmente, el desarrollo de la teoría de los agujeros negros, que con su apetito voraz son capaces de alterar la trama misma del espacio-tiempo, da pie a muchas teorías audaces de universos paralelos comunicados entre sí. Universos en racimos, que conviven en una continuidad espacio-temporal en un eterno presente. Todas las épocas serían contemporáneas en un presente infinito. Tales ideas están presentes entre las mentes inquietas del mundo científico y también literario. Ya en l941, en su antología “El jardín de senderos que se bifurcan”, Jorge Luis Borges publicó un cuento llamado “Tlön, Uqbar, Orbis Tertius”, en donde anuncia el descubrimiento de una enciclopedia que describiría un mundo con nuevas leyes físicas. Curiosamente, ese cuento fue la inspiración para la novela “La Segunda Enciclopedia de Tlön”, del escritor chileno Sergio Meier, quien llevó estos conceptos al extremo. En su novela, el autor nos sumerge en un mundo en apariencia extraño, donde las realidades son hologramas sintéticos de dimensiones cósmicas, Pudiera pensarse que se trata de una fantasía sin sustento alguno en la realidad, sin embargo Meier, versado en ciencia moderna, pudo llevar al arte una de las partes más bellas y desconocidas de la especulación científica moderna: el paradigma holográfico.

• ¿El Fin del Reduccionismo?

La existencia de sistemas distribuidos y no lineales, tales como las redes neurales naturales y artificiales, los fenómenos cuánticos y los hologramas, ha sido un gran problema para el dogma científico, ya que se trata de evidencia tangible de que el reduccionismo no se puede aplicar a todos los casos, pues hay sistemas que funcionan de manera distribuida y colaborativa, que no pueden ser estudiados sólo analizando sus partes por separado.

5. Anexos

Método de obtener imágenes fotográficas tridimensionales. Las imágenes se crean sin lente alguna, por lo que esta técnica también se denomina fotografía sin lente. Las grabaciones reciben el nombre de hologramas (en griego, holos, ‘todo’; gram, ‘mensaje o cosa escrita’). Los principios teóricos de la holografía fueron desarrollados por el físico británico de origen húngaro Dennis Gabor en 1947. La primera producción real de hologramas tuvo lugar a principios de los años sesenta una vez disponible el láser. A finales de los años ochenta se comenzó la fabricación de hologramas en color, así como de hologramas que cubrían desde la región del espectro de las microondas hasta los rayos X. También se crearon hologramas ultrasónicos utilizando ondas de sonido.
Un holograma se diferencia básicamente de una fotografía normal en que no sólo registra la distribución de intensidades de la luz reflejada, sino también la de fases. Es decir, la película es capaz de distinguir entre las ondas que inciden en la superficie fotosensible hallándose en su amplitud máxima, de aquellas que lo hacen con amplitud mínima. Esta capacidad para diferenciar ondas con fases distintas se logra interfiriendo un haz de referencia con las ondas reflejadas.
Así, en uno de los métodos de obtención de hologramas, el objeto se ilumina mediante un haz de luz coherente, un haz en el que todas las ondas se desplazan en fase entre sí y que se genera con un láser. En esencia, la forma del objeto determina el aspecto de los frentes de onda, es decir, la fase con la que la luz reflejada incide en cada uno de los puntos de la placa fotográfica. Parte de este mismo haz láser se refleja simultáneamente en un espejo o prisma y se dirige hacia la placa fotográfica; este haz se denomina haz de referencia. Los frentes de onda de este último, al no reflejarse en el objeto, permanecen paralelos respecto del plano y producen un patrón de interferencia con los frentes de onda de la luz reflejada por el objeto. Si éste es un punto, por ejemplo, los frentes de onda del haz reflejado serán esféricos; el patrón de interferencia producido en la película estarán entonces formados por círculos concéntricos, reduciéndose el espacio entre los círculos a medida que aumenta el radio.
El patrón de interferencia producido por un objeto más complicado también será mucho más complejo, por lo que la simple inspección del holograma resultante sólo descubrirá un complicado patrón de estructuras oscuras y claras que aparentemente no guardan ninguna relación con el objeto original. Sin embargo, si se contempla el holograma bajo luz coherente, se hará visible el objeto grabado; y si se contempla el holograma desde diferentes ángulos, el objeto también se ve desde distintos ángulos. El efecto tridimensional se consigue porque el holograma reconstruye en el espacio los frentes de onda que originalmente fueron creados por el objeto.
Este mecanismo se puede entender a la vista del ejemplo del holograma de un punto. La luz coherente que incide en los círculos concéntricos del holograma sufre una difracción sobre una rejilla de difracción. El ángulo del haz aumenta con la distancia respecto del centro de los anillos concéntricos, reconstruyendo así los frentes esféricos de onda, y el espectador percibe el punto en la misma ubicación relativa en la que se hallaba el punto real al construir el holograma. Los frentes de onda de los objetos más complejos se reconstruyen de la misma forma. La distribución de intensidades de la luz reflejada se registra en el grado de oscurecimiento de los patrones de interferencias de la película.

• Tipos de Hologramas

La holografía ha progresado de una manera impresionante y rápida debido a la gran cantidad de aplicaciones que se le están encontrando día a día. Los hologramas se pueden ahora hacer de muy diferentes maneras, pero todos con el mismo principio básico. Los principales tipos de hologramas son los siguientes:

a) Hologramas de Fresnel . Éstos son los hologramas más simples, tal cual se acaban de describir e la sección anterior. También son los hologramas más reales e impresionantes, pero tienen el problema de que sólo pueden ser observados con la luz de un láser.

b) Hologramas de reflexión . Los hologramas de reflexión, inventados por Y N. Denisyuk en la Unión Soviética, se diferencian de los de Fresnel en que el haz de referencia, a la hora de tomar el holograma, llega por detrás y no por el frente, como se muestra en la figura 39. La imagen de este tipo de hologramas tiene la enorme ventaja de que puede ser observada con una lámpara de tungsteno común y corriente. En cambio, durante la toma del holograma se requiere una gran estabilidad y ausencia de vibraciones, mucho mayor que con los hoogramas de Fresnel. Este tipo de holograma tiene mucho en común con el método de fotografía a color por medio de capas de interferencia, inventado en Francia en 1891 por Gabriel Lippmann, y por el cual obtuvo el premio Nobel en 1908.

c) Hologramas de plano imagen . Un holograma de plano imagen es aquel en el que el objeto se coloca sobre el plano del holograma. Naturalmente, el objeto no está físicamente colocado en ese plano, pues esto no sería posible. La imagen real del objeto, formada a su vez por una lente, espejo u otro holograma, es la que se coloca en el plano de la laca fotográfica. Al igual que los hologramas de reflexión, éstos también se pueden observar con una fuente luminosa ordinaria, aunque sí es necesario láser para su exposición.

d) Hologramas de arco iris . Estos hologramas fueron inventados por Stephen Benton, de la Polaroid Corporation, en 1969. Con estos hologramas no solamente se reproduce la imagen del objeto deseado, sino que además se reproduce la imagen real de una rendija horizontal sobre los ojos del observador. A través de esta imagen de la rendija que aparece flotando en el aire se observa el objeto holografiado, como se muestra en la figura 40. Naturalmente, esta rendija hace que se pierda la tridimensionalidad de la imagen si los ojos se colocan sobre una línea vertical, es decir, si el observador está acostado. Ésta no es una desventaja, pues generalmente el observador no está en esta posición durante la observación. Una segunda condición durante la toma de este tipo de hologramas es que el haz de referencia no esté colocado a un lado, sino abajo del objeto.

Este arreglo tiene la gran ventaja de que la imagen se puede observar iluminando el holograma con la luz blanca de una lámpara incandescente común. Durante la reconstrucción se forma una multitud de rendijas frente a los ojos del observador, todas ellas horizontales y paralelas entre sí, pero de diferentes colores, cada color a diferente altura. Según la altura a la que coloque el observador sus ojos, será la imagen de la rendija a través de la cual se observe, y por lo tanto esto definirá el color de la imagen observada. A esto se debe el nombre de holograma de arco iris.

e) Hologramas de color . Si se usan varios láseres de diferentes colores tanto durante la exposición como durante la observación, se pueden lograr hologramas en color. Desgraciadamente, las técnicas usadas para llevar a cabo estos hologramas son complicadas y caras. Además, la fidelidad de los colores no es muy alta.

f) Hologramas prensados. Estos hologramas son generalmente de plano imagen o de arco iris, a fin de hacerlos observables con luz blanca ordinaria. Sin embargo, el proceso para obtenerlos es diferente. En lugar de registrarlos sobre una placa fotográfica, se usa una capa de una resina fotosensible, llamada Fotoresist,depositada sobre una placa de vidrio. Con la exposición a la luz, la placa fotográfica se ennegrece. En cambio, la capa de Fotoresist se adelgaza en esos puntos. Este adelgazamiento, sin embargo, es suficiente para difractar la luz y poder producir la imagen. Dicho de otro modo, la información en el holograma no queda grabada como un Sistema de franjas de interferencia obscuras, sino como un sistema de surcos microscópicos.

El siguiente paso es recubrir el holograma de Fotoresist, mediante un proceso químico o por evaporación, de un metal, generalmente níquel. A continuación se separa el holograma, para que quede solamente la película metálica, con el holograma grabado en ella. El paso final es mediante un prensado con calor: imprimir este holograma grabado en la superficie del metal, sobre una película de plástico transparente. Este plástico es el holograma final.

Este proceso tiene la enorme ventaja de ser adecuado para producción de hologramas en muy grandes cantidades, pues una sola película metálica es suficiente para prensar miles de hologramas. Este tipo de hologramas es muy caro si se hace en pequeñas cantidades, pero es sumamente barato en grandes producciones.

g) Hologramas de computadora . Las franjas de interferencia que se obtienen con cualquier objeto imaginario o real se pueden calcular mediante una computadora. Una vez calculadas estas franjas, se pueden mostrar en una pantalla y luego fotografiar. Esta fotogralía sería un holograma sintético. Tiene la gran desventaja de que no es fácil representar objetos muy complicados con detalle. En cambio, la gran ventaja es que se puede representar cualquier objeto imaginario. Esta técnica se usa mucho para generar frentes de onda de una forma cualquiera, con alta precisión. Esto es muy útil en interferometría.

Matematica, Algebra y Logica Formal en Sistemas

1.      Introducción

Las Ciencias Matemáticas y la Informática forman un núcleo de actividades científicas fundamentales para el desarrollo científico y económico-social del país. Tienen una característica fundamental por ser componentes importantes de la educación y las actividades de todas las disciplinas científicas, tanto exactas como naturales y sociales, y tecnológicas. El crecimiento de la producción y de los servicios requiere la incorporación de los conocimientos y métodos que se desarrollan tanto por la Matemática Aplicada como la Informática.

Este capítulo incluye la sección sobre Matemática Aplicada, que se refiere a las investigaciones matemáticas vinculadas al desarrollo de otras disciplinas científicas y tecnológicas.

  1. 2.      Objetivos

Al aceptar, la primera cuestión que nos planteamos fue cómo presentar las implicaciones y relaciones que existen entre matemáticas e informática? o qué aspectos de esas relaciones exponer?

Como respuesta vamos a destacar al concepto de “cálculo” o “cómputo” como la relación fundamental entre matemática e informática. Rescatar esta relación no es tarea facil en un momento como el actual, en el que todo el mundo usa la informática apoyándose en una máquina misteriosa (mágica caja negra), pero en la que, en su empleo, no se percibe directamente la presencia de las matemáticas, y en la que su nombre “ordenador” (ejecuta ordenes) oculta su origen, de forma diferente a como lo dejaba patente en las épocas en las que se llamaba “computadora” (realiza cómputos o cálculos).

En efecto, considerada como máquina de utilidad general, está muy extendido el uso directo, por gran número de personas, de los procesadores de texto, que se comportan como máquinas de escribir sofisticadas y que ayudan al almacenamiento y archivo de los documentos así generados. Tambien es cada vez más común el uso del correo electrónico (como un híbrido entre la máquina de escribir y el teléfono), y de otras aplicaciones de Internet que, aunque potentes y misteriosas, tampoco se vinculan directamente con las matemáticas.

También en las distintas profesiones se utilizan, cada vez más y más, los ordenadores y las aplicaciones informáticas; pero estas aplicaciones solo en profesiones muy especificas utilizan explícitamente el cálculo numérico, la estadística y otras funcionalidades matemáticas. En la mayor parte de las profesiones se utilizan aplicaciones orientadas a las bases de datos, al tratamiento de imagen, a la gestión administrativa, y aunque en todas ellas se utilizan algoritmos matematicos muy complejos, estos no se perciben y por tanto no aparecen explicitamente las matemáticas empleadas en ellos, o lo hace solamente en sus aspectos mas elementales, como puede ser la aritmética contable.

Todo el mundo sabe que hay aplicaciones informáticas a la ingeniería, y a otras disciplinas en las que las matemáticas juegan un papel importante, pero precisamente por eso se estima que esas aplicaciones más tienen que ver con la matemática que con la informática propiamente dicha.

2.1              Objetivo General

Pero en que consiste la informática propiamente dicha?

Por un lado, forman parte de la informática las propias máquinas: los ordenadores; esas cajas negras provistas de propiedades portentosas, que se han llegado a llamar, incluso, “cerebros electrónicos”, y que aparecieron rodeadas de una aureola (que en alguna medida aún conservan) que otras máquinas no tienen.

Por otro lado, forma también parte de la informática algo que se sabe es esencial para que los ordenadores funcionen, como son los programas. Los programas son textos escritos en determinados lenguajes comprensibles por la máquina, llamados lenguajes de programación, para que una vez interpretados por el ordenador realicen posteriormente su ejecución. Para escribir esos programas se requiere de unos especialistas informáticos que conozcan los lenguajes propios de las máquinas.

Nos estamos refiriendo a los dos aspectos generales de la informatica; es decir a la parte material (hardware, o ferretería) y a la parte inmaterial (software, o parte blanda o impalpable). Nos estamos refiriendo a los dos pilares que fundamentan la informática, y en los que se apoya su tercer elemento formado por las aplicaciones.

Pero, de que forma, tanto el hardware como el software, son resultado, consecuencia, y aplicación de la matemática? Intentaremos, dar respuesta a esta pregunta, o al menos a delinear, según mi apreciación, cómo el vínculo fundamental que relaciona a la informática con la matemática es la noción de cálculo.

2.2              Objetivo Especifico

  1. 3.      Desarrollo
  • La matemática como cálculo.

No vamos a entrar a caracterizar a la matemática, ni a intentar dar una definición parcial que sirva siquiera para los fines de esta conferencia, diremos simplemente que uno de los resultados y finalidades de la matemática es el cálculo. Es decir, la matemática busca formas razonadas de procedimientos seguros mediante los que podamos contar, medir, y obtener los resultados de ciertas serie de operaciones que nos permitan predecir algunos acontecimientos que puedan ocurrir en la naturaleza.

Al aludir a formas razonadas nos estamos refiriendo a la reflexión, al pensamiento, a la lógica; al aludir a procedimientos seguros nos estamos refiriendo al cálculo.

Como entendemos que esta última caracteristica de la matemática es el fundamento de la informática, dedicaremos nuestra conferencia a precisar lo que se entiende por cálculo. Y al ir avanzando en la precisión de esta idea, iremos percibiendo lo que, a mi juicio, es el vínculo esencial entre matemáticas e informática.

Un cálculo es un procedimiento que nos dice como debemos aplicar unas reglas, construidas a partir de operaciones sencillas sobre unos datos conocidos, para obtener el resultado buscado.

En un cálculo los datos no siempre son numéricos, como suele creerse, pueden ser de otro tipo, por ejemplo, geométricos (puntos, rectas, figuras, …), letras o palabras, oraciones o proposiciones lingüísticas o lógicas. Estos datos corresponden a magnitudes, u otros conceptos, a cuya definición dedica la matemática gran esfuerzo.

Las reglas y operaciones deben ser conocidas y sencillas, en el sentido de que cualquiera persona con un pequeño entrenamiento pueda realizarlas (de aquí la idea de automatismo como opuesta a la de reflexión o de pensamiento). También puede considerarse la tarea de definir esas operaciones, y estudiar sus propiedades, como una de las actividades a las que se ha dedicado y dedica la matemática.

La historia del cálculo es tan vieja como la historia de la propia matemática. Como todo el mundo sabe la palabra cálculo significa piedrecilla, y con ella se alude al procedimiento matemático mas antiguo que se conoce: contar. También se usan piedrecillas (en los conjuntos de piedrecillas ya esta la idea de número) en procedimientos mas complejos, como la suma y la resta. El ábaco chino, que todavía se usa en algunas colectividades, es un superviviente, que tal vez viene desde épocas prehistóricas, de los primitivos usos de los “cálculos” . Así, el ábaco es el primer instrumento utilizado en el largo camino de la computación.

  • El álgebra y los algoritmos.

Hemos dicho que una de las características de los procedimientos de cálculo es que sus reglas han de ser sencillas y fáciles expresar para permitir su aprendizaje y la utilización de las mismas sin mayor esfuerzo.

Los cálculos aritméticos pronto alcanzaron cierta complejidad, y describirlos en el lenguaje corriente o natural hacia difícil su descripción y por tanto su transmisión y utilización, sobre todo cuando se trataba de exponer métodos de resolución para familias enteras de problemas.

Para superar esta dificultad se vio cada vez como más necesario apoyarse en símbolos y notaciones mediante los cuales definir un leguaje (distinto del natural empleado hasta entonces), que fuese más adecuado para expresar y describir las ideas y los procedimientos matemáticos. Así apareció y se fue desarrollando el álgebra, como lenguaje formal, y la idea de algoritmo, o cálculo algebraico, como automatismo para la resolución de problemas. Esta formalización de la aritmética se va depurando, desde los primeros tratados de la “regla de la cosa”, hasta alcanzar su madurez mediante las expresiones algebraicas, que permitían describir con sencillez las operaciones del álgebra. Utilizando las expresiones algebraicas es mas facil encontrar y dar las fórmulas para la resolución de ecuaciones algebraicas de los grados inferiores. Estas fórmulas sintetizaban algoritmos, es decir procedimientos automáticos mediante los cuales a partir de los datos del problema obtener la solución, o dicho en términos matemáticos, a partir de los coeficientes de la ecuación obtener sus raíces.

En efecto, estas formulas indican el orden en que deben realizarse ciertas operaciones con los coeficientes para obtener el resultado. Estas operaciones son, en el álgebra clásica (el álgebra del siglo XVI) , la suma, la resta, el producto, la división y la raíz cuadrada, y se decía “resolver ecuaciones por radicales” cuando se utilizaban estas formulas o los algoritmos por ellas representados, en las que la raíz cuadrada jugaba un papel esencial en las mismas.

Con este tipo de algoritmos con radicales, se obtuvieron, en el siglo XVI, procedimientos “automáticos” para resolver tambien las ecuaciones de tercer y cuarto grado. Pero no pudieron encontrarse algoritmos de este tipo para ecuaciones algebraicas de grado superior al cuarto , lo que significó un acicate para buscar otros procedimientos de cálculo.

Mucho del esfuerzo matemático de los siglos XVII y XVIII, se dedicó a reducir el pensamiento a cálculo, es decir buscar la forma de realizar procedimientos efectivos mediante los que obtener de forma “automática” (no depender de la feliz idea) la resolución de problemas.

Aunque esa pretensión no se consiguió, en esta búsqueda se desarrolló el cálculo analítico o formal (cálculo infinitesimal de Newton (1642-1727) y de Leibniz (1646-1716), la geometría analítica de Descartes (1596-1650)) y cálculo numérico (como fueron los desarrollos en serie para realizar el cálculo efectivo de funciones matemáticas, uno de cuyos principales artífices fue Euler (1707-1783)).

–          El Cálculo de Proposiciones.

Una vez que hemos visto, con mayor generalidad, lo que se entiende por un cálculo, veremos que esta noción se aplica, no solo a las operaciones geométricas, numéricas y algebraicas, sino también a las operaciones lógicas. Para ello demos unas ideas sobre en que consiste el cálculo de proposiciones, tambien conocido como álgebra de Boole, y como puede materializarse este cálculo lógico mediante máquinas. Esta teoría matemática es el fundamento de los actuales ordenadores electrónicos y por tanto uno de los aspectos en que de forma más directa esta vínculada la informática con la matemática. Más adelante veremos como la lógica formal, o lógica matemática, también es el fundamento de los lenguajes de programación: otro de los pilares en los que se apoya la informática.

En que consiste el cálculo de proposiciones?

Una proposición es una frase o expresión a la que se puede asignar el valor lógico de verdadero o de falso; si toma el valor de verdadero se la llama proposición verdadera y si toma el valor de falso se la llama proposición falsa. Por ejemplo, la proposicion

5 \end{displaymath}” type=”#_x0000_t75″ o:spid=”_x0000_i1045″>

es una proposición falsa, y la proposicion 

es una proposición verdadera.

  • La formalización como cálculo.

La extensión del calculo aritmético, al álgebra clásica, al álgebra de las proposiciones y a otras lógicas, ha conducido a considerar a alguno de los aspectos formales de la matematica como cálculo, y esto ha tenido gran importancia para la definición de los sistemas formales deductivos; en particular, en la formalización de los lenguajes, no solo matemáticos (Metamatemática), sino de otros tipos de lenguajes: los lenguajes formales (o artificiales); e incluso del lenguaje natural como lo está intentando la moderna lingüística y la lingüística computacional.

La contribución de Chomsky al desarrollo de la lingüística, desde que apareció, en 1957, su Syntactic Structures , ha sido muy importante en los lenguajes naturales y también, de forma muy patente, en los lenguajes de programación. Las gramáticas formales, las gramáticas generativas y transformacionales, han dado nuevas herramientas para estos estudios.

–          Lenguajes Formales.

Llamamos lenguaje construido con el alfabeto , a cualquier subconjunto L de *. Diremos que un lenguaje es finito, si es finito el número de cadenas de que consta; en otro caso diremos que es infinito. El lenguaje vacio no tiene ninguna cadena (que no debe confundirse con el lenguaje que solo tiene la cadena vacia).

Una vez dada esta definición tan general de lenguaje, el problema inicial que se nos presenta es como distinguir con precisión las cadenas que pertenecen a un lenguaje L de aquellas que no pertenecen. Hay dos formas de hacerlo: una consiste en dar las reglas mediante las cuales construir las cadenas que forman el lenguaje, y otra es dar un procedimiento para determinar si una cadena dada pertenece o no al lenguaje considerado. En el primer caso se trata de definir las gramáticas formales, o generadores, y en el otro los autómatas o reconocedores.

Para fijar un poco las ideas de lo que se entiende por lenguaje definido por una gramática formal, demos ligeramente algunos detalles técnicos. Una gramática es un procedimiento finito para formar o generar cualquiera de todas las posibles cadenas de un lenguaje.

–          Sistemas Formales.

La pretensión de formalización del pensamiento, que se inició con la osadía de Boole al pretender haber encontrado “las leyes del pensamiento”, dió origen a un interés renovado por la lógica y a la aparición de la lógica matemática (Morgan, Frege, Russell, Hilber), que se inicia en la segunda mitad del siglo XIX, y que incide de forma determinante en la moderna fundamentación de la matemática, y en el desarrollo de la teoría de conjuntos (Peano, Cantor).

La idea de formalización de una teoría es la que brevemente exponemos a continuación.

Definimos a un sistema formal, como una cuádrupla

donde sus elementos los interpretamos como sigue:

:

es un alfabeto.

:

es un subconjunto recursivo de , llamado conjunto de fórmulas ( *).

:

es un subconjunto recursivo de , cuyos elementos reciben el nombre de axiomas. .

:

es un conjunto finito de reglas de inferencia, de la forma , cuyas variables tomarán valores en . En estas reglas se dice que la fórmula se obtiene a partir de las mediante , o que es consecuencia de .

  • Calculabilidad

Para dar respuesta a estas preguntas lo primero que hay que estudiar, y definir con precisión, es que se entiende por cálculo, y por algoritmo, conceptos estos que se han venido utilizando desde el Renacimiento, sin ser sometidos a la necesaria crítica, (como hemos expuesto en las paginas anteriores), pero que a partir de los descubrimientos de Gödel, era imprescindible que se aclararan, pues ya se había perdido definitivamente la esperanza, acariciada por Raimundo Lulio, y también pretendida por Leibniz, de que ante cualquier situación conflictiva, en la que se presentase una discrepancia entre personas, esta se resolviese, en vez de utilizar discusiones acaloradas, mediante el cálculo (calcular en lugar de discutir).

En los años 30 del siglo XX, varios lógicos matemáticos, inician la tarea de definir con precisión lo que se entiende por calculabilidad, profundizando en las ideas de algoritmo y de función calculable, dando como resultado los conceptos de funciones recursivas, y de máquinas de Turing. En el primer caso se trata de encontrar las funciones calculables más simples posibles a partir de las cuales por composición y por recursión se van obteniendo las demás funciones que pueden ser efectivamente calculables o computables. En el segundo caso se trata de definir máquinas compuestas por conjuntos de instrucciones de la mayor sencillez posible con la finalidad de obtener de forma efectiva el resultado de una función calculable.

–          Maquinas de Turing.

Otra forma de caracterizar la clase de las funciones computables se hace mediante las llamadas máquinas de Turing. Estas son máquinas formales, es decir sin cables ni componentes físicos. Su finalidad es definir los cálculos a partir de las operaciones más sencillas posibles, y utilizando las cuales calcular efectivamente funciones dadas. Las funciones que así pueden realizarse se llaman funciones calculables o computables.

Este tipo de máquina consta hipoteticamente de una unidad de control capáz de interpretar las instrucciones que reciba, y de una cabeza lectora que permite leer el contenido de una de las casillas en que está dividida una memoria lineal, ilimitada en ambas direcciones de sus extremos.

  1. 4.      Conclusión
  • Las máquinas automáticas

Hasta aquí se dio un sucinto panorama de la evolución del papel jugado por la matemática en los fundamentos y orígenes de la informática. Como se vio, este papel ha consistido en la búsqueda de automatismos de cálculo, desarrollando para ello aparatos teóricos cada vez más potentes.

Aunque entre matemática e informática existen muchos otros vínculos, en el marco de una conferencia solo se puede aludir a alguno de los aspectos que relacionan a ambas disciplinas. Por ejemplo, también debería haberse tenido en cuenta el aspecto reciproco, es decir, considerar que si la matemática ha sido el fundamento teórico que ha permitido la aparición y desarrollo de la informática, también la informática brinda ahora un potente instrumento de cálculo que facilita el estudio de ciertos problemas matemáticos que hasta ahora no habian podido abordarse con éxito, como ocurre, entre otros muchos, con varios problemas de topología y de teoría de números. Este tema de la informática como auxiliar en la investigación de algunos problemas matemáticos, es un tema importante que requiere una atención específica.

Pero no queremos terminar sin subrayar el hecho, que resulta realmente sorprendente, de cómo estos estudios teóricos encaminados a encontrar procedimientos de cálculo se hayan materializado en máquinas, con cierta autonomía para actuar, que pueden permitir al hombre liberarse de los trabajos repetitivos y mecanicos, (características estas que son las que mejor definenen a los cálculos), para poder dedicarse a tareas creativas mas propias de la complejidad de la naturaleza humana, alcanzada tras millones de años de una evolución natural todavía inconclusa.

Los automatismos, que eran realizados al principio directamente por el hombre, han ido materializandose paulatinamente hasta convertirse en herramientas cada vez mas participativas, que han ido aportando, con eficacia creciente, su colaboracion en la realización de esos cálculos. En esta evolución de la materialización de los procedimientos se ha llegado, a mediados del siglo XX, a la construcción de máquinas en las que cada vez intervienen menos, de forma directa, las personas.

En efecto, aunque a lo largo de nuestra conferencia hemos aludido varias veces a algunos dispositivos físicos utilizados por el hombre como herramienta de cálculo (ábaco, regla y compás, máqinas aritméticas, regla de cálculo, …), no podemos considerar todavía a estos dispositivos como máquinas automáticas, ya que ninguno de ellos funciona sin que el hombre opere directamente sobre los mismos.

Los primeros ejemplos que suelen citarse como dispositivos físicos automáticos (entendiendo aquí automatismo como la ausencia de intervención humana en la ejecución de un proceso) son el telar de Jaquard (1752-1834), y el regulador de Watt (1736-1819). Aquél, por que es la primera máquina capaz de leer información previamente grabada en una tarjeta perforada (dispositivo digital) y realizar por sí misma las operaciones indicadas en esa información; y el segundo porque es capáz de medir directamente una magnitud física (la presión del vapór de la caldera) mediante un dispositivo analógico, y cambiar su comportamiento de acuerdo con esa medida.

Este es un nuevo enfoque del concepto de automatismo, en el que lo característico es la existencia de máquinas con capacidad para recibir información y de ajustar su comportamiento de acuerdo con la información recibida . La importancia de este nuevo concepto consiste en el decubrimiento de sistemas, tanto digitales como analógicos, en los que que la información puede depositarse, circular y ser interpretada por y en dispositivos materiales fuera del sistema nervioso humano. Han aparecido en torno a este concepto dos nuevas disciplinas: la Teoría de la Información y la Cibernética. La cibernética es una de las disciplinas que estudia el comportamiento de estos sistemas de información, en los que la realimentación y homeostasis son dos de los factores siempre presentes en los mismos. La teoría de la información estudia los aspectos matematicos de la informacion. Estas nuevas disciplinas que han abierto nuevos campos de estudio a la matemática, y la relacionan con la informática, considerada esta última en su sentido más amplio.

Asi se llega a percibir que la información se comporta como un elemento físico, material, externo al hombre, análogo a la materia o a la energía, y este hecho, de aparición tan reciente (apenas 200 años), es de una transcendencia tal, que está modificando de forma radical la estructura de las sociedades humanas. En estas modificaciones están incidiendo de forma muy notable los sistemas cibernéticos , de complejidad creciente, que podríamos agrupar en dos grandes categorías y denominar simbólicamente a cada una de ellas como maquina sapiens y maquina faber, así como las redes de comunicación que los interconectan.

La actividad inteligente del hombre le ha conducido al descubrimiento de cálculos y algoritmos para no tener que pensar en como actuar cada vez en que se presentan las mismas condiciones, de manera que una vez pensado el procedimiento este se reduce a una sucesión de reglas que aplicadas correctamente nos llevan con certeza a obtener el resultado deseado. Ya hemos visto como la materialización de estos procedimientos nos han conducido a la aparición del ordenador y de otros dispositivos automáticos. Durante siglos el hombre era el único capáz de operar estos instrumentos. Solo desde hace unas decadas puede decirse que esos instrumentos y dispositivos han alcanzado un nivel de desarrollo suficiente para poder interpretar directamente la informacion y los algoritmos y, de acuerdo con ellos, actuar sin la atención humana directa. El ordenador es el máximo exponente de este tipo de dispositivos, aunque no el único ni será el último. Pero estos dispositivos solo actuan sobre información, solo es información lo que transforman y transportan. Esta característica de este tipo de máquinas y dispositivos es la nos permite denominarla, abusando evidentemente de la expresión, como máquina sapiens. Estas maquinas facilita el acceso a la información y a la cultura y permite la cooperación intelectual de las personas.

Pero el hombre no solo actúa sobre la información, actúa también sobre la materia, la transforma y la transporta, y para ello necesita energía. En la transformación de la materia el hombre ha usado de forma directa su energía corporal, su fuerza física, así como de la información que como individuo poseía sobre los procesos de transformación. También desde épocas remotas recurrió a pensar procedimientos para incrementar el resultado de su fuerza, pensamiento que fue materializandose en herramientas, instrumentos y otros dispositivos que se convirtieron en máquinas productivas cada vez mas elaboradas. A la clase de esta gran familia de dispositivos productivos es a la que podemos llamar maquina faber.

La conjunción entre estas dos clases de máquinas ha hecho aparecer otras de nuevo tipo (nos referimos al robót, que puede considerarse como un ordenador dotado de fuerza y movilidad) que ya desde los años 50 se preconizaba como el elemento básico para el desarrollo de la automación, es decir de la producción automática total. Este vaticinio no se ha producido, pero no por dificultades técnicas insuperables, sino para evitar los cambios sociales que esos cambios tecnológicos acarrearían.

Vemos, pues, como el hombre en su desarrollo intelectual, y a lo largo de su producción técnica y científica, especialmente matemática, ha ido creando dispositivos para liberarse de los trabajos repetitivos y mecánicos, simbolizados por la informática, para alcanzar así la posibilidad de dedicarse a tareas más propiamente humanas.

  1. 5.      Recomendación

Es necesario que se tome conciencia de la necesidad creciente de todas las ciencias en volcarse al uso de Matemática en la formalización de sus conceptos, lo cual requiere de la formación de matemáticos capaces de integrarse a grupos de investigación multidisciplinarios, traducir los problemas al lenguaje formal, analizarlos utilizando o creando herramientas matemáticas adecuadas, interactuando constantemente con los especialistas de otras disciplinas. Por consiguiente se necesita con urgencia una política activa de los departamentos de Matemática para impulsar el estudio y la investigación en Matemática Aplicada, considerada como rama de la Matemática, del mismo nivel de seriedad que la Matemática pura, y con una fuerte interrelación con computación. Los matemáticos aplicados deben ser formados con el mismo entrenamiento riguroso en Matemática que los matemáticos puros, pero deberán, además, considerarse ciertas pautas especiales referidas a Matemática Aplicada. Estas son:

a) Para un matemático aplicado, es indispensable haber tenido cursos de análisis numérico (álgebra lineal numérica, resolución numérica de ecuaciones diferenciales, etc.) y de optimización con y sin restricciones;

b) Análogamente, un matemático aplicado deberá tener en su carrera cursos de otras ciencias exactas y naturales, conjuntamente con los estudiantes de estas ciencias, para comprender la metodología de la ciencia experimental;

c) El matemático aplicado deberá tener una sólida base en computación;

d) El matemático aplicado deberá tener entrenamiento en modelización y experimentación numérica, con el cual se acostumbrará al hecho de que, en muchos casos, la Matemática Aplicada tiene aspectos de ciencia experimental en la cual la computadora hace las veces de laboratorio (ver por ejemplo las secciones de Ciencias de la Atmósfera, Oceanografía y Cambio Global).

Por otra parte, debe haber una política activa de contacto con empresas, estatales y privadas, para, por un lado, convencer a las empresas de que la Matemática Aplicada les puede ser muy útil, y, por el otro, ir creando en los jóvenes matemáticos una cultura de integración con el medio productivo. Este no es un proceso fácil: basta ver las dificultades que se tuvieron en Oxford para llevar adelante propuestas de “Matemática industrial” con empresas privadas, comenzando con Imperial Chemical Industries (ICI), pese al prestigio tanto de Oxford como de ICI. Debe destacarse que, pese a las dificultades que se enfrentaron, el proyecto fue exitoso.

Por último, como primeras medidas para impulsar el desarrollo de la Matemática Aplicada se puede proponer lo siguiente:

a) Otorgamiento de becas de doctorado del CONICET en Matemática Aplicada. El número inicial no puede ser muy numeroso, dado que hay pocos posibles directores de tesis y pocos estudiantes de Matemática interesados (y con los mínimos conocimientos indispensables de análisis numérico, computación, optimización, etc.), pero deberán ir en aumento en los años siguientes. Por ejemplo, empezar con seis becas a nivel nacional e ir aumentando el número anualmente. Es importante que esta información se difunda entre los estudiantes de Matemáticas (y de otras disciplinas), como para ir creando la sensación de que es política del CONICET (y eventualmente de la Agencia) considerar durante varios años a la Matemática Aplicada área de carencia a ser protegida. Naturalmente, no es necesario restringir el beneficio de estas becas a graduados en Matemática : no tiene nada de malo que un físico o un licenciado en computación, por ejemplo, terminen haciendo su doctorado en Matemática Aplicada.

b) Establecer convenios con grandes empresas para enviar, primero pasantes y luego becarios de posdoctorado, de modo que CONICET y cada empresa financien en determinadas proporciones la respectiva pasantía o posdoctorado. Esto contribuirá a que las empresas noten que los matemáticos aplicados les son útiles, y puedan eventualmente incorporarlos. En general, no hay nada mejor que la existencia en el ámbito de una empresa de uno o más doctores en ciencia o ingeniería para favorecer la relación universidad-empresa, y esto se aplica naturalmente también a los matemáticos aplicados.

c) Otorgar subsidios del CONICET y la Agencia para proyectos de investigadores que incluyan estudiantes de doctorado en Matemática Aplicada en dichos proyectos.

  1. 6.      Bibliografía

Profesor D. Federico Gaeta

  1. 7.      Referencia de Internet

http://biblioweb.sindominio.net

http://es.wikipedia.org

http://www.njit.edu

  1. 8.      Anexos

Campos de las Ciencias de la Computación

  • Fundamentos matemáticos

–          Criptografía

Algoritmos para proteger datos privados, incluyendo el cifrado

–          Teoría de grafos

Son elementales para las estructuras de almacenamiento de datos y para los algoritmos de búsqueda.

–          Lógica matemática

–          Teoría de tipos

Análisis formal de los tipos de los datos, y el uso de estos para entender las propiedades de los programas, en particular la seguridad de los mismos.

  •  Teoría de la computación

–          Teoría de la computación

–          Teoría de autómatas

–          Teoría de la computabilidad

–          Teoría de la complejidad computacional

Límites fundamentales (en especial de espacio en memoria y tiempo) de los cómputos.

  •  Algoritmos y estructuras de datos

–          Análisis de algoritmos

–          Algoritmos

Procesos formales usados para los cómputos, y eficiencia de estos procesos.

–          Estructuras de datos

Organización y manipulación de los datos

  • Lenguajes de programación y compiladores

–          Compiladores

Formas de traducir programas computacionales, usualmente a partir de lenguajes de alto nivel a lenguajes de bajo nivel.

–          Teoría de lenguajes de programación

Lenguajes formales para expresar algoritmos y las propiedades de estos lenguajes.

  • Bases de datos

–          Minería de datos

Estudio de algoritmos para buscar y procesar información en documentos y bases de datos; muy relacionada con la adquisición de información.

  •  Sistemas concurrentes, paralelos y distribuidos

–          Programación concurrente

Teoría y práctica de cómputos simultáneos y computación interactiva.

–          Redes de computadoras

Algoritmos y protocolos para comunicar eficientemente datos a través de largas distancias, incluye también la corrección de errores.

–          Cómputo paralelo

Computación usando múltiples computadoras y múltiples procesadores en paralelo.

–          Sistemas Distribuidos

Sistemas utilizando múltiples procesadores repartidos en una gran área geográfica.

  • Inteligencia artificial

–          Inteligencia artificial

La implementación y estudio de sistemas que exhiben (ya sea por su comportamiento o aparentemente) una inteligencia autónoma o comportamiento propio, a veces inspirado por las características de los seres vivos. Las ciencias de la computación están relacionadas con la IA, ya que el software y las computadoras son herramientas básicas para el desarrollo y progreso de la inteligencia artificial.

–          Razonamiento automatizado

–          Robótica

Algoritmos para controlar el comportamiento de los robots.

–          Visión por computador

Algoritmos para extraer objetos tridimensionales de una imagen bidimensional.

–          Aprendizaje Automático

  •  Gráficos por computador

–          Computación gráfica

Algoritmos tanto para generar sintéticamente imágenes visuales como para integrar o alterar la información visual y espacial tomada del mundo real.

–          Procesamiento digital de imágenes

Por ejemplo para sensores remotos.

–          Geometría Computacional

Por ejemplo algoritmos veloces para seleccionar sólo los puntos visibles en un poliedro visto desde cierto ángulo, usado en motores 3D

  •  Computación científica

–          Bioinformática

–          Computación Cuántica

Paradigma de computación basado en la Mecánica Cuántica

Y se ha habilitado nuevos tipos de investigación científica, como la física computacional, la química computacional y la biología computacional, entre otras (Constable 1997).

Atte: ASDLC

Seguridad Informatica y Cybernetica

 1.      Introducción

 Se entiende por Seguridad Informática al conjunto de normas, procedimientos y herramientas, que tienen como objetivo garantizar la disponibilidad, integridad, confidencialidad y buen uso de la información que reside en un sistema de información.

Las amenazas que debe considerar la Seguridad Informática son de distintos tipos:

Averías en los sistemas. Para asegurar la disponibilidad de la información debe existir una política de backup que permita contar con una copia de la información, de modo que pueda ser restaurada. También es necesario un procedimiento de contingencia que contemple los distintos casos que se pueden presentar (avería en un servidor, avería en un sistema de almacenamiento, avería en un equipo de comunicaciones,…), e indique los pasos a seguir para restaurar el servicio.

Mal funcionamiento del software que procesa la información. Un software mal diseñado puede poner en riesgo la integridad de la información que recibe y procesa el sistema.

Ataques malintencionados. Provocados por virus, o por personas que intencionadamente buscan destruir o tergiversar la información. Las medidas que se pueden plantear para evitar este tipo de riesgos son de distintos tipos: Implementar cortafuegos y antivirus, imponer una política de obligue al uso de contraseñas robustas y que caduquen cada cierto tiempo, etc…

Para prevenir estas amenazas, o para paliar sus efectos, uno de los primeros elementos que debe considerar un sistema de Seguridad Informática es un sistema de monitorización, que permita detectar consumos inesperados de recursos, averías, intrusiones y ataques.

Hay numerosas aplicaciones de código abierto desarrolladas para atender a los distintos aspectos de la Seguridad Informática.

La Seguridad Informática, generalmente consiste en asegurar que los recursos del sistema de información (Material Informático o programas) de una organización sean utilizados de la manera que se decidió.

La Seguridad Informática busca la protección contra los riesgos liados a la informática. Los riesgos son en función de varios elementos:

  • Las amenazas que pesan sobre los activos a proteger.
  • Las vulnerabilidades de estos activos.
  • Su sensibilidad, la cual es la conjunción de diferentes factores: la confidencialidad, la integridad, la disponibilidad o accesibilidad.

Los riesgos, en términos de seguridad, se caracterizan por lo general mediante la siguiente ecuación. 

La amenaza representa el tipo de acción que tiende a ser dañina, mientras que la vulnerabilidad (conocida a veces como falencias (flaws) o brechas (breaches)) representa el grado de exposición a las amenazas en un contexto particular. Finalmente, la contramedida representa todas las acciones que se implementan para prevenir la amenaza.

Las contramedidas que deben implementarse no sólo son soluciones técnicas, sino también reflejan la capacitación y la toma de conciencia por parte del usuario, además de reglas claramente definidas.

Para que un sistema sea seguro, deben identificarse las posibles amenazas y por lo tanto, conocer y prever el curso de acción del enemigo. Por tanto, el objetivo de este informe es brindar una perspectiva general de las posibles motivaciones de los hackers, categorizarlas, y dar una idea de cómo funcionan para conocer la mejor forma de reducir el riesgo de intrusiones.

  1. 2.      Objetivos

Generalmente, los sistemas de información incluyen todos los datos de una compañía y también en el material y los recursos de software que permiten a una compañía almacenar y hacer circular estos datos. Los sistemas de información son fundamentales para las compañías y deben ser protegidos.

Generalmente, la seguridad informática consiste en garantizar que el material y los recursos de software de una organización se usen únicamente para los propósitos para los que fueron creados y dentro del marco previsto.

2.1              Objetivo General

La seguridad informática, generalmente consiste en asegurar que los recursos del sistema de información (Material Informático o programas) de una organización sean utilizados de la manera que se decidió.

La seguridad informática busca la protección contra los riesgos liados a la informática. Los riesgos son en función de varios elementos:

• Las amenazas que pesan sobre los activos a proteger.

• Las vulnerabilidades de estos activos.

• Su sensibilidad, la cual es la conjunción de diferentes factores: la confidencialidad, la integridad, la disponibilidad o accesibilidad.

La seguridad informática está concebida para proteger los activos informáticos de la empresa, entre los que se encuentran:

  • La Información

Se ha convertido en uno de los elementos más importantes y valiosos dentro de una organización. La seguridad informática debe ser administrada según los criterios establecidos por los administradores y supervisores, evitando que usuarios externos y no autorizandos puedan acceder a ella sin autorización. De lo contrario la organización corre el riesgo de que la información sea utilizada maliciosamente para obtener ventajas de ella o que sea manipulada, ocasionando lecturas erradas o incompletas de la misma. Otra función de la seguridad informática en esta área es la de asegurar el acceso a la información en el momento oportuno, incluyendo respaldos de la misma en caso de que esta sufra daños o pérdida producto de accidentes, atentados o desastres.

  • La Infraestructura Computacional

Una parte fundamental para el almacenamiento y gestión de la información, asi como para el funcionamiento mismo de la organización. La función de la seguridad informática en esta área es velar que los equipos funcionen adecuadamente y preveer en caso de falla planesde robos, incendios, boicot, desastres naturales, fallas en el suministro eléctrico y cualquier otro factor que atente contra la infraestructura informática.

  • Los Usuarios

Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y que gestionan la información. La seguridad informática debe establecer normas que minimicen los riesgos a la información o infraestructura informática. Estas normas incluyen horarios de funcionamiento, restricciones a ciertos lugares, autorizaciones, denegaciones, perfiles de usuario, planes de emergencia, protocolos y todo lo necesario que permita un buen nivel de seguridad informática minimizando el impacto en el desempeño de los funcionarios y de la organización en general. y como principal contribuyente al uso de programas realizados por programadores

2.2              Objetivo Específico

  • Explicar la importancia de la información como activo estratégico.
  • Definir la expresión “Seguridad Informática”.
  • Describir los principios que sirven de fundamento a la Seguridad Informática.
  • Ejemplificar los mecanismos de implantación de la seguridad informática, asociándolos con el principio que fortalecen.
  • Convicción de su Existencia Practica
  • Visión de su Necesidad
  • Visión de su Importancia
  1. 3.      Desarrollo

SEGURIDAD:”Es un estado de alto contenido subjetivo, que nos hace sentir adecuadamente exentos de riesgos reales o potenciales, dentro de un marco lógico de equilibrio psíquico.” Interesante no?.

INFORMATICA: “Es la ciencia que estudia el fenómeno de la información, los sistemas aplicados a ella y su utilización, principalmente, aunque no necesariamente con la ayuda de computadores y sistemas de telecomunicaciones como instrumentos, en beneficio de la humanidad.”

Entonces podríamos dar el concepto final de SEGURIDAD INFORMATICA: “Es el conjunto de medidas preventivas, de detección y corrección destinadas a proteger la integridad, confidencialidad y disponibilidad de los recursos informáticos.”

Una de las cosas que siempre tenemos que tener en mente es que la seguridad no es para nada “ABSOLUTA”. Y esto es algo que tenemos que tener en cuenta, que la seguridad intenta prevenir y minimizar el impacto o riesgo.

Esto se debe a que lamentablemente aunque nos gustara, no podemos impedir y eliminar de por vida el factor riesgo y miedo.

Pero si podemos disminuir ese riesgo y miedo, si aumentamos la seguridad.

Nosotros como especialistas en el tema, debemos intentar llevar esa prevención a un nivel alto y para ello necesitamos una efectiva organización las cuales las basaremos en 3 pilares fundamentales de la SI (Seguridad Informática desde ahora SI).

  • Conceptos de Seguridad Informática

Como consecuencia de la amplia difusión de la tecnología informática, la información:

–          Se almacena y se procesa en computadores, que pueden ser independientes o estar conectados a sistemas de redes.

–           Puede ser confidencial para algunas personas o para instituciones completas.

–          No está centralizada y puede tener alto valor.

–          Puede utilizarse para fines poco éticos.

–          Puede divulgarse sin autorización de su propietario.

–          Puede estar sujeta a robos, sabotaje o fraudes.

–          Puede ser alterada, destruida y mal utilizada.

La Seguridad Informática (S.I.) es la disciplina que se ocupa de diseñar las normas, procedimientos, métodos y técnicas, orientados a proveer condiciones seguras y confiables, para el procesamiento de datos en sistemas informáticos.

La decisión de aplicarlos es responsabilidad de cada usuario.

Las consecuencias de no hacerlo… también.

  • Principios de Seguridad Informática

–          Integridad: Garantizar que los datos sean los que se supone que son.

Se refiere a la validez y consistencia de los elementos de información almacenados y procesados en un sistema informático.

Basándose en este principio, las herramientas de seguridad informática deben asegurar que los procesos de actualización estén sincronizados y no se dupliquen, de forma que todos los elementos del sistema manipulen adecuadamente los mismos datos.

Este principio es particularmente importante en sistemas descentralizados, es decir, aquellos en los que diferentes usuarios, computadores y procesos comparten la misma información.

–          Confidencialidad: Asegurar que sólo los individuos autorizados tengan acceso a los recursos que se intercambian.

Se refiere a la privacidad de los elementos de información almacenados y procesados en un sistema informático.

Basándose en este principio, las herramientas de seguridad informática deben proteger al sistema de invasiones, intrusiones y accesos, por parte de personas o programas no autorizados.

Este principio es particularmente importante en sistemas distribuidos, es decir, aquellos en los que usuarios, computadores y datos residen en localidades diferentes, pero están física y lógicamente interconectados.

–          Disponibilidad: Garantizar el correcto funcionamiento de los sistemas de información

Se refiere a la continuidad de acceso a los elementos de información almacenados y procesados en un sistema informático.

Basándose en este principio, las herramientas de Seguridad Informática deben reforzar la permanencia del sistema informático, en condiciones de actividad adecuadas para que los usuarios accedan a los datos con la frecuencia y dedicación que requieran.

Este principio es particularmente importante en sistemas informáticos cuyo compromiso con el usuario, es prestar servicio permanente.

  • Factores de Riesgo

–          Ambientales: factores externos, lluvias, inundaciones, terremotos, tormentas, rayos, suciedad, humedad, calor, entre otros.

–          Tecnológicos: fallas de hardware y/o software, fallas en el aire acondicionado, falla en el servicio eléctrico, ataque por virus informáticos, etc.

–          Humanos: hurto, adulteración, fraude, modificación, revelación, pérdida, sabotaje, vandalismo, crackers, hackers, falsificación, robo de contraseñas, intrusión, alteración, etc.

  • Mecanismos de Seguridad Informática

Un mecanismo de seguridad informática es una técnica o herramienta que se utiliza para fortalecer la confidencialidad, la integridad y/o la disponibilidad de un sistema informático.

Existen muchos y variados mecanismos de seguridad informática. Su selección depende del tipo de sistema, de su función y de los factores de riesgo que lo amenazan.

–          Preventivos: Actúan antes de que un hecho ocurra y su función es detener agentes no deseados.

–          Detectivos: Actúan antes de que un hecho ocurra y su función es revelar la presencia de agentes no deseados en algún componente del sistema. Se caracterizan por enviar un aviso y registrar la incidencia.

–          Correctivos: Actúan luego de ocurrido el hecho y su función es corregir las consecuencias.

  • ¿Por qué es Importante la Seguridad?

Por la existencia de personas ajenas a la información, también conocidas como piratas informáticos o hackers, que buscan tener acceso a la red empresarial para modificar, sustraer o borrar datos.

Tales personajes pueden, incluso, formar parte del personal administrativo o de sistemas, de cualquier compañía; de acuerdo con expertos en el área, más de 70 por ciento de las Violaciones e intrusiones a los recursos informáticos se realiza por el personal interno, debido a que éste conoce los procesos, metodologías y tiene acceso a la información sensible de su empresa, es decir, a todos aquellos datos cuya pérdida puede afectar el buen funcionamiento de la organización. 

Esta situación se presenta gracias a los esquemas ineficientes de seguridad con los que cuentan la mayoría de las compañías a nivel mundial, y porque no existe conocimiento relacionado con la planeación de un esquema de seguridad eficiente que proteja los recursos informáticos de las actuales amenazas combinadas.

El resultado es la violación de los sistemas, provocando la pérdida o modificación de los datos sensibles de la organización, lo que puede representar un daño con valor de miles o millones de dólares.

–          Para Fortalecer Confidencialidad

Encripción o cifrado de datos: Es el proceso que se sigue para enmascarar los datos, con el objetivo de que sean incomprensibles para cualquier agente no autorizado.

Los datos se enmascaran usando una clave especial y siguiendo una secuencia de pasos pre-establecidos, conocida como “algoritmo de cifrado”. El proceso inverso se conoce como descifrado, usa la misma clave y devuelve los datos a su estado original.

–          Para Fortalecer Integridad

Software anti-virus: Ejercen control preventivo, detectivo y correctivo sobre ataques de virus al sistema.

Software “firewall”: Ejercen control preventivo y detectivo sobre intrusiones no deseadas a los sistemas.

Software para sincronizar transacciones: Ejercen control sobre las transacciones que se aplican a los datos.

–          Para Fortalecer Disponibilidad

Planes de recuperación o planes de contingencia: Es un esquema que especifica los pasos a seguir en caso de que se interrumpa la actividad del sistema, con el objetivo de recuperar la funcionalidad.

Dependiendo del tipo de contingencia, esos pasos pueden ejecutarlos personas entrenadas, sistemas informáticos especialmente programados o una combinación de ambos elementos.

Respaldo de los datos: Es el proceso de copiar los elementos de información recibidos, transmitidos, almacenados,  procesados y/o generados por el sistema.

Existen muchos mecanismos para tomar respaldo, dependiendo de lo que se quiera asegurar. Algunos ejemplos son: Copias de la información en dispositivos de almacenamiento secundario, computadores paralelos ejecutando las mismas transacciones, etc.

  • Otros problemas comunes

Otros problemas importantes de seguridad son la  autentificación, es decir la prevención de suplantaciones, que se garantice que quien firma un mensaje es realmente quien dice ser; el  no repudio, o sea que alguien niegue haber enviado una determinada información (que efectivamente envió) y los  controles de acceso, esto es quien tiene autorización y quien no para acceder a una parte de la información. 

  • La Seguridad es un Problema Integral

Los problemas de seguridad informática no pueden ser tratados aisladamente ya que la seguridad de todo el sistema es igual a la de su punto más débil. Al asegurar nuestra casa no sacamos nada con ponerle una puerta blindada con sofisticada cerradura si dejamos las ventanas sin protección. De manera similar el uso de sofisticados algoritmos y métodos criptográficos es inútil si no garantizamos la confidencialidad de las estaciones de trabajo.

Por otra parte existe algo que los hackers llaman “Ingenieria Social” que consiste simplemente en conseguir -mediante engaño- que los usuarios autorizados revelen sus passwords. Por lo tanto, la educación de los usuarios es fundamental para que la tecnología de seguridad pueda funcionar. Es evidente que por mucha tecnología de seguridad que se implante en una organización, si no existe una clara disposición por parte de la Dirección General y una cultura a nivel de usuarios, no se conseguirán los objetivos perseguidos con la implantación de un sistema de seguridad.

  1. 4.      Conclusiones

En la seguridad de la información, se debe proteger la consistencia del triángulo C-I-D, pero no se podrá realizar a cualquier costo, y quizás no sea necesario proteger la información. Por ejemplo, si su compañía vende agua purificada embotellada basado en el proceso de la osmosis reversa, ya que este proceso es bien conocido, por consiguiente no tiene sentido proteger dicho proceso de producción. Sin embargo, si su compañía ha identificado un proceso revolucionario que reduce los costos y tiempo a la mitad en dicho proceso, usted sin duda alguna tratará de proteger dicha información. Este es un límite para valorar la implementación de un plan de protección donde deben combinarse el valor del conocimiento, amenazas, vulnerabilidades, y riesgos de tal forma que se construya un verdadero plan de atenuación de riesgos. Para ello será necesario:

  • Colocarle un valor a la información.
  • Identificar tantos riesgos como sean posibles tanto sus amenazas y vulnerabilidades asociadas.
  • Minimizar los riesgos identificados.
  • Sea consciente que siempre hay que cosas que fueron pasadas por alto.

Este es el límite en el momento de minimizar riesgos, en algunas ocasiones el costo o dificultad de reducir un riesgo es mayor que el riesgo por si mismo. Por ejemplo, si trabaja en una fábrica de refrescos y posee un archivo de texto donde están almacenados todos los ingredientes para producir la línea entera de productos, no tendría sentido esforzarse invirtiendo tiempo y dinero entre otros para proteger dicha información ya que es una simple lista de ingredientes. Ahora, si usted tiene una fórmula para la mejor venta del producto y su compañía es la única en crear ese producto si tendrá sentido hacer la inversión correspondiente para proteger dicha información. Todo plan de administración de riesgos es distinto porque cada compañía tiene justamente sus propias características, presupuesto, y mano de obra para ser utilizada en la administración de riesgos. De seguro estas preguntas le ayudaran mucho…

  • ¿Qué información necesita ser asegurada?
  • ¿Cuál es el valor de la información?
  • ¿Cuáles son las oportunidades en que la información pueda estar comprometida?
  • ¿De qué manera la información es accesada?
  • ¿Qué tantas personas acceden a la información?
  • ¿Es la información fácil de asegurar?

Indistintamente si decide mitigar un riesgo, deberá identificar tantos riesgos potenciales como sea posible y desarrollar un plan de mitigación que comprenda cada uno de ellos. Cuando los riesgos son identificados y se les asigna un costo (en tiempo y dinero) para asegurar la información, puede ser comparado con el valor de la información para determinar qué medidas de seguridad son razonables. Para toda situación, la administración de riesgos y el tratado de los mismos será diferente. Basándose en el ejemplo de la fábrica de refrescos, podrá identificar lo siguiente:

  • El valor de la fórmula es de 10 millardos de Bs porque justamente es el volumen de ganancias anuales.
  • El riesgo que la competencia pueda obtener la fórmula.
  • La amenaza de que alguien de afuera pueda localizar y apoderarse de la fórmula, o que un empleado pueda hacer llegarla a la competencia indistintamente si la vende o la obsequia.
  • Las vulnerabilidades de que la fórmula esté almacenada en cinco ubicaciones diferentes y que un gran número de personas tenga acceso a la misma.
  • Para atenuar los riesgos, la fórmula puede resguardarse en un solo lugar y de hecho inaccesible, pero esto resulta impráctico. Un mejor plan de mitigación, sería reducir el número de copias de la fórmula de 5 ubicaciones distintas a 3, así como limitar el acceso a 25 personas con su respectivo registro.
  • Inclusive podría no haber pensado en limitar el acceso a la zona donde se utiliza la fórmula para elaborar el producto, a través de una lista de las personas que pueden tener acceso, y adicionalmente incorporar un método de autenticación para los mismos. Estos son probablemente amenazas significativas adicionales, vulnerabilidades y riesgos que deben ser consideradas para poder atenuarlas. Identificarlas tanto como sean posibles, son tareas de un buen especialista de seguridad.
  1. 5.      Recomendaciones

El concepto de la seguridad comienza desde nuestro PC, la seguridad a nivel local es lo primero que debemos cuidar. Un 90 % de los ataques vienen por las contraseñas. Es conveniente cambiarlas cada 15 días, o por lo menos una vez al mes.

Existen sistemas de fuerza bruta, “John The Ripper”, que consiste en un ataque a las contraseñas por medio de un programa que prueba palabras que están en un diccionario hasta que las descubre (normalmente un archivo de texto). Es decir, exploran combinaciones con el fin de hallar la contraseña. Pero en estos diccionarios no están todas las posibles claves, por lo tanto, lo adecuado es poner cosas que no estén en los diccionarios, por ejemplo, una contraseña que no signifique nada, sin sentido, con caracteres ASCII como ^y ~, y lo suficientemente larga.

Hay tres tipos de contraseñas que conviene no olvidar de poner en un PC si queremos que tenga una mínima seguridad. Se empieza ” de abajo a arriba:

– La primera, la de la BIOS. Esta es para que en el arranque no se pueda acceder a arrancar el SO (sistema operativo). Es muy conveniente hacerlo ya que hay muchas intrusiones a nivel “local”, es el primer sitio que debemos cuidar. Si quitamos la pila de la BIOS eliminaríamos la contraseña, esto implica un mayor trabajo en caso de un ataque.

– Después es importante poner también una contraseña de acceso al sistema (nos centramos en Windows). Dicha contraseña debe constar de, al menos, 8 caracteres para que sea algo segura.

Procuraremos mezclar números, letras y también símbolos tipo la @ (pensado que en un ataque por fuerza bruta, una contraseña de menos de 15 caracteres es “rompible”, pero tardaría tiempo).

– A continuación hay otra contraseña a tener en cuenta, el del salvapantallas de Windows. No lo descuidéis, en el trabajo hay verdaderos problemas con este tema, un descuido y podemos sufrir ataques rápidos fortuitos desde casa o el trabajo. Lo del salvapantallas no es una tontería, te vas al baño y… PC abierto, entonces te pueden colar un troyano, ver tus archivos, etc. Lo mejor es activar el salvapantallas con la opción de introducir contraseña para volver a tener acceso al PC.

  1. 6.      Bibliografía

Seguridad Informática – Implicancias e Implementación, Lic. Cristian Borghello

  1. 7.      Referencia de Internet

http://es.wikipedia.org

http://www.taringa.net

http://www.gtri.gatech.edu/res-news/rchnews.html

http://www.inegi.gov.mx

http://www.alegsa.com.ar

http://es.kioskea.net

  • Herramientas

Nmap (http://nmap.org/) (Network Mapper). Es una herramienta para la exploración de redes y para realizar auditorías de seguridad. Funciona en múltiples sistemas operativos, incluyendo Windows y Linux.

OpenSSH (http://www.openssh.com/) (Secure Socket Shell).- Herramientas de conectividad a través de protocolo seguro SSL. Incluye ssh, scp y sftp.

Putty (http://www.putty.org/) – Cliente Windows para ssh y sftp.

OpenVPN (http://openvpn.net/)  – Utilidad para implementar redes privadas virtuales basada en SSL/TLS

ipfilter (http://coombs.anu.edu.au/~avalon/) – Firewall y NAT (Network Address Translation) para Unix/Linux

Process Explorer (http://technet.microsoft.com/es-es/sysinternals/bb896653.aspx) – Aunque no es una herramienta de código abierto, ProcessExplorer es un complemento gratuito indispensable para analizar el comportamiento de las aplicaciones que se ejecutan en un sistema operativo Windows.

lsof (http://freshmeat.net/projects/lsof/) – Herramienta para determinar en un sistema Unix/Linux el uso de recursos de los procesos.

  1. 8.      Anexos

Los 10 Mandamientos de la Seguridad Informática

En nuestros días, la sociedad se encuentra informatizada en gran medida. Muchas de nuestras actividades cotidianas las realizamos online. Los delincuentes, lamentablemente, también forman parte de la sociedad y para poder seguir llevando a cabo sus robos y estafas han tenido que modernizarse. Todo tipo de delitos virtuales se suceden a diario, sustrayendo millones de dólares por año a personas de todo el mundo, que pecan de una inocencia extrema a la hora de operar una computadora. Evitar caer en sus garras no es fácil: requiere rigor y constancia. Aquí tengo el gusto de compartirles un articulo publicado en la revista de tecnología e informática dattamagazine donde se exponen, las diez leyes que reducirán al mínimo la posibilidad de que seamos víctima de los cyberladrones.

  1. 1.      Cuidaras la seguridad del Sistema Operativo:

Elegir el sistema operativo (S.O) adecuado según la importancia y confidencialidad de los datos a almacenar en el equipo es vital. Si la información es crítica, lo ideal es emplear Sistemas Operativos muy seguros (como OpenBSD) o bastante seguros (GNU/Linux) y evitar a toda costa los menos fiables (todos los de la familia Windows, particularmente Vista y los anteriores a Windows 2000). Se debe eludir la utilización de cuentas privilegiadas, como Administrador o root, a las que sólo se recurrirá para instalar software o cambiar la configuración del sistema. Para las tareas de uso diario, debe emplearse una cuenta de usuario común, sin “superpoderes”. Todas las cuentas deben tener siempre contraseña y la misma contará con al menos 8 caracteres de largo y contendrá tanto letras como números, rehuyendo siempre al empleo de palabras que se hallen en el diccionario. Lo conveniente es usar directamente frases clave. En inglés, son conocidas como “passphrases” y un ejemplo típico sería algo así: “ 3 3 t i g r e s c o m e n d e 3 3 p l a t o s detrigo”. Ocurre que hasta una contraseña aleatoria, pero de únicamente ocho caracteres de longitud, se encuentra expuesta a ser vulnerada en pocas horas mediante un ataque de fuerza bruta. Pero inclusive al equipo más poderoso de la actualidad le llevaría años crackear por fuerza bruta una contraseña de 30 caracteres de longitud.

  1. 2.      Aplicaras regularmente las Actualizaciones de Seguridad.

Hasta los S.O. más seguros tienen vulnerabilidades. Lo que los hace confiables no es solamente una baja cantidad de errores explotables, sino también la velocidad de sus desarrolladores para implementar una solución lo más rápidamente posible una vez que los mismos han sido detectados. Los S.O. de la familias *BSD y GNU/Linux suelen publicar actualizaciones de seguridad en forma diaria. Microsoft libera parches para sus S.O. bastante más esporádicamente. En cualquier caso, es responsabilidad del administrador del sistema controlar regularmente si se disponen de actualizaciones de seguridad para su correspondiente S.O. y aplicar las que sean indispensables. Nunca es buena idea configurar al equipo para que instale las actualizaciones de manera automática. Siempre es preferible que se nos notifique y poder elegir el momento en que se realiza la instalación de los parches e, incluso, excluir algunos en particular si no los necesitamos o no deseamos actualizar algún paquete determinado por razones de estabilidad.

  1. 3.      Emplearas chequeadores de integridad, Antivirus y Antispyware.

Los usuarios de todos los S.O., pueden beneficiarse con los chequeos de integridad. Los programas o scripts que llevan a cabo esta labor son capaces de detectar cualquier modificación sobre un archivo o lote de archivos. Modificaciones inesperadas sobre documentos o, lo que es peor, sobre archivos del sistema revelarán la presencia de un malware o una intrusión no autorizada. En cambio, la utilización de antivirus y antispyware es imprescindible solamente para los usuarios de Windows. No es que no existan virus para otros S.O. como GNU/Linux, por ejemplo, pero la cantidad de virus reconocidos para esta familia de Sistemas Operativos se encuentra alrededor de los ochocientos, mientras que los virus para Windows ya han superado el medio millón. El antispyware también es fundamental para los usuarios de los S.O. de Microsoft, si buscan garantizar su privacidad. Multitud de programas gratuitos para Windows que se descargan por Internet instalan subrepticiamente programas ocultos que estudian nuestros hábitos y comunican esa información a sus creadores, quienes la convierten en valiosos datos estadísticos. Luego, se comercializan por mucho dinero a distintas empresas dedicadas al marketing y la publicidad.

  1. 4.      Encriptarás la Información Sensible.

Nunca debe almacenarse información crítica, como contraseñas, números de cuentas bancarias o de tarjetas de crédito, o cualquier otro tipo de datos confidenciales sin haber tomado la precaución de encriptarlos. Hay diversas maneras, algunas más sencillas (y, por lo tanto, menos seguras) y otras más sofisticadas. Lo importante es elegir los métodos a aplicar de manera acorde a la confidencialidad de dichos datos. Para guardar contraseñas, por ejemplo, existen diversos paquetes de software (incluso software de código abierto) que permiten resguardar en un único archivo, encriptado con una contraseña maestra, todas las cuentas de usuario que se necesiten junto con las correspondientes credenciales de acceso. Dado que es pésima idea usar la misma clave en más de un website o servicio, la cantidad de usuarios y contraseñas que tiene una persona promedio es tan elevada que, sencillamente, es imposible memorizarlas todas. Nunca deben alojarse, entonces, sin ningún tipo de protección. La misma norma rige para los documentos con información sensible. Si no se dispone de otra solución mejor, lo mínimo que se puede hacer es preservar la información sensible en un archivo ZIP o RAR codificado con contraseña o frase clave.

  1. 5.      Usarás sólo modos Seguros de acceder al e-Mail.

Si se dispone de una conexión permanente de banda ancha a Internet, y nuestro proveedor de correo ofrece el servicio de Webmail, lo mejor es utilizar directamente dicho servicio y no instalar ningún cliente de correo. Proveedores de Webmail como Google o Yahoo brindan capacidad casi infinita de almacenamiento y un servicio muy fiable, optimizan la seguridad en forma constante y proveen sus propios chequeos antivirus para los archivos adjuntos. Si no se cuenta con Webmail o, de todas maneras, se desea emplear un cliente de mail para acceder a los correos fuera de línea, se deben evitar los clientes de correo inseguros (usuarios de Windows: nunca valerse del Outlook ni Outlook Express) y nunca abrir archivos adjuntos a correos de desconocidos. Hay que prestar atención aun a los correos de nuestros propios conocidos, ya que ellos pueden estar infectados y enviando virus sin saberlo. Si un familiar nos manda un correo escrito en un idioma o estilo distintos de los habituales, conviene no abrir el archivo adjunto sin analizarlo e x h a u s t i v a m e n t e.

  1. 6.      Utilizarás únicamente Navegadores Seguros para Acceder a la WEB.

Los usuarios de Windows deben eludir el Internet Explorer como si fuera el peor de los males. No importa la versión, inclusive las recientes son muy inseguras debido a que su problema está en la misma arquitectura con la que fue concebido y lo arrastrará generación tras generación, salvo que se reescriba nuevamente el código desde cero. Ni siquiera nos detendremos en lo incorrectamente que renderiza las páginas y la escasa compatibilidad que tiene con los estándares que rigen la web actualmente, como XHTML/CSS. Cualquiera de los otros navegadores modernos es mejor: Firefox, Opera, Safari o Chrome son todos más seguros, veloces y estables que los navegadores de Microsoft. De todas formas, esto no quita que, asimismo, tengan sus problemas de seguridad, por lo cual debemos asegurarnos de actualizarlos siempre a la última versión apenas el navegador nos notifique que se han liberado actualizaciones. Firefox, por ser el más popular en este momento, es también el más atacado por los exploiters y se le han encontrado diversas vulnerabilidades. Pero dos hechos compensan este inconveniente: los veloces tiempos de respuesta para solucionar el agujero de seguridad por parte del equipo de desarrollo de Mozilla y la posibilidad de agregarle extensiones que lo tornan mucho más fiable, como Adblock Plus o No Script. (ver: Las mejores extensiones de FireFox para mejorar tu seguridad)

  1. 7.      No abrirás Enlaces ni archivos Sospechosos.

Tanto el SPAM que llega por mail como el que recibimos por mensajería instantánea (MSN, Yahoo Messenger, etc.) suelen contener enlaces web o archivos adjuntos. La probabilidad de que estos archivos sean maliciosos es muy elevada. Lo mismo ocurre al visitar sitios web de software pirata o portales eróticos. En algunos, se abren innumerables popups que ofrecen de manera gratuita todo tipo de programas, hasta, con un dejo de ironía, supuestos antivirus y antimalwares que, en realidad, son todo lo contrario. No hace falta aclarar que nunca se deben descargar este tipo de archivos y, de hacerlo por error, eliminarlos sin ejecutarlos. Incluso a la hora de descargar software legítimo, lo preferible es realizarlo siempre desde la página oficial de su desarrollador o desde sitios de descarga reconocidos como Download.com, y evitar otros sitios más sospechosos, algunos de los cuales solicitan un pago monetario o el envío de SMS para habilitar la descarga de programas que sus creadores distribuyen en forma gratuita.

  1. 8.      Ingresarás datos Críticos, sólo en Sitios Seguros.

Una de las maravillas de internet, es la compra electrónica. Navegar por góndolas en la web, agregando productos al carrito, y, en un par de clicks, pagar con tarjeta de crédito para recibir los productos en la puerta de la casa, es una bendición para numerosas personas. Lo mismo para los hobbistas y aficionados a la lectura, o la música, o tantas otras actividades, que pueden encargar a otros países a través de la web productos inconseguibles en sus lugares natales y recibirlos a los escasos días. Lo mismo ocurre con el Home Banking. Evitar tener que ir al banco y sufrir horas de cola para hacer un trámite, pudiendo llevarlo a cabo en minutos en nuestra computadora en la comodidad del hogar, es invaluable. Pero tantas ventajas entrañan sus riesgos. A través de la técnica conocida como phishing y otro tipo de ataques maliciosos, delincuentes podrían hacerse con nuestros números de tarjeta de crédito, o de cuentas bancarias, y provocar desastres. Pero podemos estar tranquilos siguiendo estas pocas precauciones. Nunca ir al sitio del banco o de compras electrónicas a través de un enlace recibido por mail o mensaje instantáneo. Siempre escribir la dirección en la barra del navegador o recurrir a un favorito hecho por nosotros mismos. Verificar que los sitios en los que operaremos usan HTTP Seguro (en la barra de direcciones, el protocolo que debe figurar es “https://” en lugar de “http://”, y en la barra de estado del navegador, en la parte inferior, debe mostrarse la imagen de un candado cerrado). Si no son sitios HTTPS (”sitios seguros”), no debemos introducir allí nuestros datos. Si dichos sitios proveen un “teclado virtual” para tipear las credenciales de usuario siempre hay que emplearlo: ello nos librará del peligro de que nuestros datos sean capturados por un “keylogger”, que puede hallarse instalado en nuestro sistema si el mismo fue infectado a través de un troyano.

  1. 9.      Si debes correr riesgos, Usarás SandBoxing.

De ser ineludible abrir un archivo sospechoso, nunca debemos hacerlo en nuestro equipo principal, aunque el análisis con uno o más antivirus indique que el mismo no está infectado. Existen varios modos de “aislar” el archivo comprometedor para poder ejecutarlo sin peligro de afectar el sistema si ocurre lo más temido. Lo más recomendable es el del uso de software de virtualización, como VMWare (propietario, aunque hay versiones gratuitas) o VirtualBox (Open Source), que emulan a una PC completa, con su disco rígido, placa de red y demás periféricos, en una ventana de nuestro Sistema Operativo anfitrión. Si estamos en la duda de si un documento de Word que recibimos contiene una información importante que estábamos esperando o un virus, lo conveniente es tener una máquina virtual de prueba, en la que seamos capaces de abrir el archivo en forma segura. En el peor de los casos, si constatamos que se trata de un archivo infectado, podemos borrar la máquina virtual o revertirla a un estado anterior a la infección por medio del sistema de “snapshots” que proveen tanto VMWare como V i r t u a l B o x.

10.  Te mantendrás Informado sobre nuevas maneras de Vulnerar tu Seguridad.

Una de las mejores formas de rehuir a dolores de cabeza es prevenir. Específicamente para quienes administran sistemas con datos críticos, tener conocimiento sobre las recientes vulnerabilidades y exploits que van surgiendo para las tecnologías que se aplican en su área es el modo de evitar que el problema nos sorprenda cuando ya es demasiado tarde. Para ello, contamos con la invaluable ayuda de diversos sitios especializados, entre los cuales podemos mencionar, puntualmente, a Secunia.com, portal danés que ya lleva siete años manteniendo al tanto a la comunidad informática sobre las diferentes vulnerabilidades que se hallan a diario en los miles de paquetes de soft que componen un sistema informático moderno. Es de gran ayuda visitar estos sitios periódicamente o suscribirse a sus feeds RSS para permanecer actualizado.

Atte: ASDLC