Definición y áreas de interés   Proyecto Salón Hogar

 

Medios de Informatica:

¨(Del fr. informatique, compuesto de information y automatique); sust. f.

Ingeniería y tecnología

 

Al estudiar el tratamiento de la informa ción, hay que conocer:

 

- qué es la información y cuál debe ser su tratamiento.


- cómo ha ido evolucionando.

 
- qué operaciones se pueden realizar con ella.


- qué máquinas y dispositivos se pueden utilizar en las distintas fases del proceso.


- qué métodos y medios e, incluso, los tipos de codificaciones adecuadas.

La información es todo aquello que permite adquirir cualquier tipo de conocimiento. Si el conocimiento es adquirido por uno mismo se dice que es directo. Cuando se recibe la información a través de distintas fuentes, a menudo ya elaborada, como pueden ser relatos o libros, el conocimiento se dice que es indirecto.

Cuando el volumen de datos a manejar se hizo muy grande, el hombre tuvo que idear y desarrollar procedimientos que le permitieran seguir realizando sus tareas de tratamiento de información. Aquellas empresas que mantuvieron los métodos tradicionales de procesamiento se vieron desbordadas y poco a poco adoptaron las nuevas técnicas.

A finales del siglo pasado en la oficina del Censo de Estados Unidos, nació una nueva ciencia, la informática. Surgió ante la incapacidad de atender el enorme volumen de información que se debía tratar. Los trabajadores del censo, comenzaron a utilizar métodos y dispositivos que mecanizaban el procesamiento de la información.

Tratamiento de la información

Proceso de recopilación de datos, ejecución de un algoritmo y presentación de los resultados. Adquirir la información a través de un conocimiento directo está limitado por los elevados niveles de información necesarios en la sociedad moderna, por lo que recibir la información indirectamente toma mayor importancia.

La información puede transmitirse de distintas formas pero siempre deberá existir un elemento emisor, otro receptor y un medio de transmisión. El emisor y el receptor pueden ser individuos o máquinas y éstas, a su vez, pueden ser desde simples dispositivos hasta complejos mecanismos. De las características del emisor y del receptor, dependen las de los demás elementos que intervienen en la transmisión:

1. El medio o la forma de transmisión: oral, escrito, telefónico, etc.
2. El soporte: aire, cuartilla, corriente eléctrica, etc.
3. El código o las normas de codificación de la información para ser transmitida: idiomas, códigos de transmisión, etc.
4. El dato o información elemental que solo o en conjunto con otros datos debe transmitirse desde el emisor hasta el receptor, mediante la utilización de un medio a través de un soporte y normalizado según un código.

El emisor y el receptor deben haberse puesto de acuerdo, antes de la transmisión, sobre las características de la misma para que ésta pueda realizarse sin ningún problema.

Por lo tanto una información constará de un determinado número de datos que podrán ser utilizados directamente o habrá que realizar con ellos una serie de operaciones para obtener un resultado, que podrá ser utilizable o transmisible nuevamente.

Al conjunto de operaciones que se realizan sobre una información con objeto de obtener determinados resultados, se le ha denominado tratamiento de la información. El resumen de dichas operaciones es el siguiente:

- Recogida de datos.
- Depuración.
- Almacenamiento.
- Aritmético.
- Lógico.
- Distribución.

Al conjunto de instrucciones que nos dicen cómo realizar una operación se le denomina algoritmo, de manera que conociendo el algoritmo y los datos a los que se va a aplicar podemos ejecutar una operación o acción.

La descomposición de un problema en un algoritmo o conjunto de instrucciones es una técnica habitual en la actividad humana pero normalmente el individuo no es consciente de su utilización. Sin embargo, en informática, cuando se plantea la realización de un tratamiento, esta técnica se realiza de un modo calculado y consciente, ya que la automatización de un proceso pasa irremediablemente por el planteamiento del algoritmo que le da solución.

Para automatizar un tratamiento necesitamos un dispositivo físico, una máquina, que se encargue de ejecutar cada una de las instrucciones recogidas en el algoritmo. Existen dos tipos de dispositivos capaces de realizar esta tarea:

1. Dispositivos de lógica cableada: son aquellos dispositivos en los que el algoritmo o algoritmos que ejecutan están realizados físicamente en su estructura interna, de forma que sólo pueden realizar un número de procesos fijados por el fabricante. Su funcionamiento se reduce a la introducción de los datos y a la actualización del proceso elegido. Un ejemplo de este tipo de dispositivos son las calculadoras.

2. Dispositivos de lógica programada, normalmente llamados ordenadores. Estos dispositivos son capaces de ejecutar cualquier algoritmo que reciban. Poseen un juego de algoritmos sencillos implementados en una estructura interna que el usuario puede combinar para formar algoritmos más complejos que puedan dar solución a procesos más complicados.

Hasta ahora sólo se ha hablado de la fase intermedia, la fase 2, del tratamiento de la información, pero necesitamos realizar dos tareas más para que el proceso esté completo. El ciclo de tratamiento es el siguiente:

Fase 1: Introducción o recogida de los datos y del algoritmo a ejecutar.
Fase 2: Ejecución del algoritmo sobre los datos introducidos.
Fase 3: Presentación de los resultados obtenidos en la fase 2.
Si se produce un error en cualquiera de estas fases, el proceso será erróneo y habrá que volver a repetirlo después de detectar y solucionar el problema que se produjo.

Computadora

Máquina universal, capaz de interpretar y ejecutar una serie de operaciones elementales, relativas al tratamiento de la información y a la resolución de tareas.

Se compone de dos partes: una física (hardware) y otra lógica (software).

a. El hardware está configurado por componentes microelectrónicos avanzados, que proporcionan el soporte físico necesario para la interpretación y ejecución de instrucciones o algoritmos elementales.

b. El software consiste en un conjunto de instrucciones comprensibles a la máquina, que conforma un programa o programas aptos para desarrollar una tarea o aplicación concreta.

La potencia de un ordenador viene dada por la velocidad de desarrollo o ejecución de instrucciones y no por la complejidad de su circuito e instrucciones que suelen ser sencillas. En la actualidad la potencia de un ordenador queda patente en la capacidad de proceso (procesador 486 y Pentium) y direccionamiento (mayor número de líneas en el bus de datos y direcciones).

Todos los procesos de tratamiento de la información se desarrollan en 3 fases sucesivas:

- Entrada de datos.
- Proceso.
- Salida.

El tratamiento de la información puede ser sencillo, como la realización de una suma, o laborioso como la automatización de su centro de cálculo; en ambos casos, el ordenador sólo realiza la fase de proceso, es decir, toma los datos de entrada junto con el algoritmo y proporciona un resultado de salida

Antecedentes históricos

El ordenador es la herramienta más potente de la que dispone el hombre actualmente para realizar procesos automáticos de tratamiento de información.

Desde el ábaco a la inteligencia artificial, son muchas las fechas y los creadores en la evolución del ordenador, y por lo tanto del tratamiento automático de la información. Sus antecedentes son:

- El ábaco es el dispositivo de cálculo más antiguo. Su nombre deriva del griego abakós, que significa superficie plana. Consta de unas cuentas ensartadas en alambres, que representan cantidades, según sea la posición que ocupan en el dispositivo. Se ha utilizado hasta 1946, año en el que en una competición se demostró que una calculadora electrónica era más eficiente.

- John Napier (1550-1617), matemático escocés, inventor de los logaritmos, descubrió un dispositivo muy ingenioso que consiste en una serie de palillos con números impresos para realizar operaciones de multiplicar y dividir.

- Blaise Pascal (1642) fue el artífice del primer calculador mecánico y, en su honor, un lenguaje de programación lleva su nombre. Inventó una máquina de ruedas dentadas que funcionaba haciendo cambiar el sentido de giro, según se sumara o restara; era del tamaño de un cartón de cigarrillos.

- Leibniz (véase Leibniz) (1646-1716), matemático autodidacta, dio a conocer una máquina más perfeccionada que la de Pascal, capaz de multiplicar, dividir y obtener raíces cuadradas; se dice que lo hizo porque nadie le enseñó a multiplicar. También propuso una máquina de calcular que utilizaba el sistema binario, el mismo que actualmente utilizan las calculadoras modernas.

- Joseph Jacqurd (1752-1834) automatizó el control de diseño en los telares, utilizando tarjetas perforadas.

Continua siguiente columna...

 

 

 

Muy Interesante     

Enlace relacionado [ las computadoras]

 

- Babbage (1822), matemático inventor inglés, sentó las bases teóricas fundamentales en las que aún se basan los ordenadores actuales. Los obstáculos para desarrollar sus ideas fueron la tecnología y las necesidades de la época, a pesar de lo cual, en 1822 diseñó su máquina diferencial para el cálculo de polinomios. Dicha máquina se utilizó para el cálculo de tablas de navegación y de artillería, fue subvencionada por el gobierno y tuvo la oportunidad de trabajar en ella durante 10 años sin éxito.

- Babbage (1883) comienza a trabajar en una máquina de propósito general para la resolución de cualquier problema matemático. Esta nueva máquina no pudo ser construida con la ingeniería de la época. Es considerado como el padre de la información, ya que en esta segunda máquina ya preveía entradas separadas para datos y programas, y se pudo alterar la secuencia de las operaciones, en base a resultados obtenidos en cálculos intermedios.

- Hernan Hollerit (1879), con tarjetas perforadas y codificadas, y basándose en una estructura de tipo eléctrico, consiguió reducir de 10 a 2 años el tiempo de creación del censo. Dejó las oficinas del censo para comercializar su máquina que leía de 50 a 80 tarjetas por minuto. Fundó su empresa de máquinas clasificadas (Tabulating Machine Company), y en 1890 ya tenía otra máquina que leía 300 tarjetas por minuto.

- James Power (1910) fue contratado por el censo para el que diseñó nuevas máquinas. Más tarde creó su empresa, que fusionada con otra dio lugar a la Sherry Rand Corporation.

- Hollerit (1924) fusionó su empresa con otras dos, y formó la International Bussines Machines (IBM).

- John Vicent Atanasof (1903) decidió construir una máquina que operase en binario, siguiendo las ideas de Babbage. Con ayuda de Clifford Berry, estudiante al que contrató con la dotación que le concedió el Consejo de Investigación del estado de Iava, construyó la ABC (Atanasof-Berry-Computer), máquina con memoria de almacenamiento por carga eléctrica.

Mauchly (1940) comenzó a dirigir el proyecto ENIAC (Electronic Numerical Integrator and Calculator). La máquina resultante, hecha a base de resistencias, interruptores, tubos de vacío y otras componentes, trabajaba a una frecuencia de 100.000 Hz, pesaba unas 30 toneladas, ocupaba 16.000 m² y consumía 100.000 w, por lo que era imprescindible que dispusiera de ventilación forzada para disipar la gran cantidad de calor que producía.

El ENIAC funcionaba utilizando tarjetas perforadas y era capaz de hacer las cuatro operaciones básicas de cálculo: sumar, restar, multiplicar y dividir; en su estructura interna poseía 20 registros de 10 dígitos y 3 tipos de tablas de funciones.

Howard Aiken de Harvard (1929-1944) construyó el MARK I en colaboración con IBM.

El MARK I era un calculador electrónico de 16 m de largo por 2 de alto. Disponía de 700.000 elementos móviles y trabajaba en el sistema decimal. En 1946, el húngaro John Von Newmann propuso una modificación del ENIAC. De acuerdo con ella, se construyó el E.D.V.A.C. en 1952, que presentaba dos importantes modificaciones con respecto a las máquinas anteriores: por un lado la aritmética binaria almacenada, y por otro el programa también almacenado.

- Mauchly (1951) introdujo en el censo el primer ordenador, tal y como hoy se concibe. Era el UNIVAC I. El UNIVAC II apareció más tarde, y estaba hecho de memorias de ferrita.

Generaciones del ordenador

El término generación se refiere a la tecnología y a los componentes con los que se construyen las computadoras. Se distinguen cinco generaciones:

- Primera generación (1946-1958).

Se caracteriza por el uso de las válvulas de vacío. Su velocidades de proceso se miden en milisegundos (10-3). Sus circuitos eran semejantes a los empleados entonces en la construcción de radios.

Si comparamos los ordenadores de la primera generación con los actuales, se podría decir que eran lentos, de gran tamaño, inflexibles, con necesidad de controles muy estrictos en cuanto al suministro de energía eléctrica y ventilación.

Comparados con los equipos electromecánicos, los ordenadores de la primera generación, tenían enormes ventajas sobre cualquier otro método de proceso de datos, cuando era un gran volumen de información el que debía procesarse en cortos períodos de tiempo.

Ordenadores de la época: UNIVAC-I de la Sperry Rand, las series 600 y 700 de IBM y el EDVAC.

- Segunda generación (1958-1965).

Hasta aquel momento el avance había sido relativamente lento debido a que los ordenadores no sólo eran caros, sino que exigían mucho espacio y abundancia de medios para diseñarlos y fabricarlos. La aparición del transistor, que es un dispositivo en estado sólido capaz de adoptar la forma de pequeños paralelepípedos, hizo cambiar la situación en gran medida.

El transistor surgió en los laboratorios de Bell Telephone, en 1948, y se introdujo en los ordenadores en 1958. Las nuevas máquinas fueron más pequeñas y además aumentaron su velocidad de proceso -la velocidad se medía en microsegundos (10-6)-. Sus circuitos eran más sencillos. Las memorias se construían con ferrita, lo que permitía reducir el tamaño de la máquina y aumentar a la vez su rapidez y capacidad de proceso.

Con el ordenador de esta generación se desarrollaron también almacenamientos secundarios con grandes capacidades, impresoras de alta velocidad y, en general, dispositivos de alta velocidad de transmisión (cintas magnéticas).

Aparecieron técnicas matemáticas enfocadas a la resolución de problemas haciendo uso del ordenador y los métodos de recuperación de la información se innovaron.

Ordenadores de la época: 1400 y 1700 de IBM, la 1107 de Sperry Rand y la 3500 de CDC.

- Tercera generación (1965-1970).

La aparición de los circuitos integrados, Small Scale Integration (SSI), Medium Scale Integration (MSI) y Large Scale Integration (LSI), fueron la revolución de los ordenadores. Estos circuitos integrados son del tamaño de los transistores y contienen miles de componentes elementales interconectados entre sí. Esto supuso reducir aún más el tamaño de los ordenadores, incrementando el tiempo medio entre averías de la unidad central.

La velocidad de ejecución de las operaciones elementales pasó a medirse en nanosegundos (10-9). Se desarrollaron dispositivos periféricos más efectivos y unidades de almacenamiento secundario de gran volumen con amplias facilidades de acceso (disco magnético). Empezaron a usarse terminales remotas, se podía incluso consultar información al instante desde dichas terminales y realizarse transacciones en el momento.

Ordenadores de la época: Serie 360 de IBM, la Spectra 70 de RCA, la serie 600 de GE, la 200 de Honeywell, la UNIVAC 1108 y la 6600 de CDC.

- Cuarta generación.

Su desarrollo comenzó en 1971 y continúa hasta la fecha aprovechando los avances conseguidos con la microelectrónica. Los elementos principales de los ordenadores de esta generación son los microprocesadores, que son dispositivos de estado sólido, manufacturados sobre chips de silicio que contienen miles de transistores, resistencias y demás elementos de los circuitos electrónicos. Esta densidad de componentes hace que los microprocesadores pertenezcan también a la familia de los circuitos integrados.

Se emplean circuitos integrados de grandes velocidades y se emplea el arseniuro de galio en lugar del silicio.

Ordenadores de la época: Se mantienen los mismos lenguajes de programación y arquitecturas de la generación anterior (IBM 3081 o Fujitsu 380), pero la tecnología VLSI (Very Large Scale Integration) permite desarrollar máquinas como las LISP.

- Quinta generación.

El proyecto de esta generación es el de producir ordenadores auténticamente inteligentes, sistemas a los que el usuario se puede dirigir en lenguaje natural y con los que se puede "conversar".

Los lenguajes de esta generación, cuyo primer prototipo apareció en los 90, tienen las siguientes características:

- Nueva tecnología de fabricación, basada posiblemente en materiales distintos del silicio.
- Se sustituyen los lenguajes de alto nivel: COBOL, FORTRAN, etc. por el PROLOG y LISP que poseen más recursos lógicos.
- Nuevas arquitecturas distintas a la de Von Neumann, tales como las arquitecturas RISC (Reduced Instrution Set Computer) y CISC (Complex Intruction Set Computer).
- Nuevos métodos de Entrada/Salida: identificación de lenguaje oral, reconocimiento de formas, tratamiento de la información en lenguaje oral.
- Inteligencia Artificial: se investiga sobre los sistemas expertos que están dotados de conocimientos y normas para la resolución de problemas, mediante deducción lógica.

 

 

 

 

Fundación Educativa Héctor A. García