sábado, 30 de agosto de 2014

Generaciones del computador


Introducción


En la actualidad no nos podemos imaginar casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadoras han invadido la mayoría de las labores del ser humano; hoy día todos los habitantes del mundo somos dependientes directos o indirectos del uso de las computadoras, como en oficinas bancarias, centros de enseñanza, oficinas de ventas, clínicas médicas u hospitales, fabricas y almacenes industriales, organismos de gobierno y oficinas administrativas, laboratorios, entre muchos otros. 


La revolución producida por la computadora en el saber humano proviene de la concentración de conocimientos que puede memorizar, la elaboración que de ellos pueden hacer, y de la complejidad de los estudios y tareas que puede realizar mediante instrucciones programadas. 




Haciendo un esbozo historiográfico, durante la segunda guerra mundial, se desarrollo una imponente maquina calculadora en la universidad de Pennsylvania, bautizada con el nombre de ENIAC (Electronic Numerical Integrator and Calculator), pesaba 30 toneladas y ocupaba una superficie de más de 200 m2. Su existencia se debió a la necesidad de calcular las tablas de disparos de los proyectiles que implicaban una enorme cantidad de operaciones aritméticas. La evolución de las computadoras se tiende a dividir en generaciones, teniendo en cuenta adelantos y desarrollos tecnológicos que las hacen más eficaces, en cuanto a su velocidad y cantidad de operaciones a realizar, más cómoda por su tamaño y sencillez en su utilización y más inteligentes, con relación a las tareas que puedan llegar a cumplir 

Estas máquinas maravillosas inventadas por el hombre, tal como ahora las concebimos, son el resultado de una gran secuencia de eventos. 


Primera generación (1951 - 1958) 


Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Estas computadoras estaban constituidas por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta, eran grandes y pesadas. Generaban un alto consumo de energía, el voltaje de los tubos era de 300 V y la posibilidad de fundirse era grande 

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la primera generación formando una compañía privada y construyendo UNIVAC I, la cual se utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas, sin embargo no había logrado el contrato para el Censo de 1950. 


Monografias.com



Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en EE.UU. De hecho la IBM instaló 1000 computadoras. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías Privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.



Segunda generación (1959 - 1964) 





El invento del transistor (dispositivo electrónico que sirve como amplificador de señal) hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. No obstante el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Mejoraron los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas. Los programas de computadoras también avanzaron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la primera generación estaba ya disponible comercialmente; fue uno de los primeros programas que se pudieron ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper, quien en 1952 había inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), la misma se encargo de desarrollar el proyecto COBOL, el escribir un programa ya no requería entender plenamente el hardware de la computación.



Las computadoras de la segunda generación eran más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.


La marina de EE.UU. utilizó las computadoras de la segunda generación para crear el primer simulador de vuelo. Para ese entonces HoneyWell se había colocado como el primer competidor durante la segunda generación de computadoras. Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, Control Data Corporation con su conocido modeloCDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento.



Tercera generación (1964 - 1971)


Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados, en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (chip) por el ingeniero Jack S. Kilbry de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semiconductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras. Antes de la llegada de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas.


Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. Se instalan terminales remotas, que puedan acceder a la computadora central para realizar operaciones, extraer o introducir información en Bancos de Datos, etc. Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta. Se generalizan los lenguajes de programación de alto nivel.




Monografias.com



IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology), fue una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000.


Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero los lectores de tarjetas ya alcanzan velocidades respetables.


Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Con la introducción del modelo 360, IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron un gran auge entre 1960 y 1970.


Cuarta generación (1971 - 1982)


Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más componentes en un chip, producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales.


En 1971, Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o chip de 4 bits, que en un espacio de aproximadamente 4 X 5 mm contenía 2250 transistores. Este primer microprocesador fue bautizado como el 4004.

Monografias.com

Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer, asimismo se incluye un sistema operativo estandarizado, el MS-DOS (MicroSoft Disk Operating System).


Las principales tecnologías que dominan este mercado son: IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruction Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.


Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a grandes velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón sobre uno de los iconos o menús.



Quinta generación (1982 - actualidad)



La quinta generación inicia a principios de los años ochenta, teniendo como característica principal la evolución de las comunicaciones a la par de la tecnología.


La computación paralela sigue avanzando al grado de que los sistemas paralelos empiezan a competir con los sistemas vectoriales en términos de poder total de cómputo.


La miniaturización de componentes y su consecuente reducción en costo y necesidades técnicas ayudan a obtener sistemas de muy alta capacidad en donde las estaciones de trabajo compiten y superan en capacidad a las supercomputadoras de las generaciones anteriores.



Dentro de los eventos que forjaron el inicio de este período están:


La actualización de la especificación IEEE 802.3, para incluir cableado de par de cobre trenzado con 10 Base T.

Tim Berners-Lee trabaja en una interfaz gráfica de usuario navegador y editor de hipertexto utilizando el ambiente de desarrollo de NeXTStep, bautizando "World Wide Web" al programa y al proyecto.



Motorola presenta el concepto del Sistema Iridium para comunicación personal global, complementando los sistemas de comunicación alámbrica e inalámbrica terrestre.



Formalmente se cierra ARPAnet, que es reemplazada por la NSFnet y las redes interconectadas, dando origen a la participación pública en el desarrollo de lo que se convertiría en la red de redes, Internet, y la formación del grupo de trabajo para redes inalámbricas IEEE802.11 (Wireless LAN Working Group IEEE 802.11).

La implementación de redes de datos digitales se vuelve un asunto cotidiano, no solo alcanzando altas velocidades, sino además creando esquemas jerárquicos de transmisión de datos permitiendo la integración de servicios de video de alta calidad con movimiento total, voz y otros datos digitales multimedia en tiempo real.

El siguiente paso tecnológico consistió en la integración de computadoras en red para trabajo simultáneo o computación distribuida, en donde un proceso en una computadora en red puede encontrar tiempo de procesador en otra de la misma red para realizar trabajos en paralelo.



Otros avances fundamentados en las tecnologías de comunicación son:


Funcionamiento de computadoras en modo agrupado, también conocido como "cluster", en donde varias computadoras se comportan como una misma, dando un grado tal de tolerancia a fallas, que inclusive puede fallar una computadora sin que la funcionalidad se afecte.


Dispositivos inteligentes, yendo desde tostadoras y hornos de microondas, hasta casas y edificios conectados en red para su administración, supervisión y control remoto a través de las redes.


Internet hace entrada en el mundo doméstico abriendo nuevas alternativas para negocios, comercios y empresas creando lo que se conocería como el "bum del punto com", en donde aparecen y desaparecen servidores de Internet en un grado vertiginoso, todos ellos de empresas que buscan un posicionamiento global.



Con las computadoras de nivel elemental de esta época y la caída en los costos de las comunicaciones se llegan a crear negocios virtuales cuya única sucursal puede estar en un servidor doméstico y tener presencia mundial.





Uno de los pronósticos que se han venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con la llegada de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.



Sexta generación (futuro)





Como supuestamente la sexta generación de computadoras está por venir, en un futuro no muy lejano, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo/Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolladas o están en ese proceso. Algunas de ellas son: inteligencia artificial distribuida, teoría del caos, sistemas difusos, holografía, transistores ópticos, etc.


Cada vez se hace mucho más difícil la identificación de las generaciones de las computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la quinta generación ha terminado (la ubican entre los años 1984 a 1990) y que la sexta generación está en desarrollo desde los años noventa hasta la actualidad; por otro lado, expertos en la informática y la computación afirman que la quinta generación no ha culminado (se viene desarrollando desde los años ochenta hasta la actualidad) y que la sexta generación es el futuro (la relacionan con la robótica y la inteligencia artificial).


Guiándonos en base a lo investigado y en nuestros propios conocimientos, consideramos que la sexta generación es el futuro y parte de la actualidad.


Se vienen desarrollando con mayor auge y mejor tecnología:


Las Computadoras Portátiles (Laptops).
Las Computadoras de Bolsillo (PDAs).
Los Dispositivos Multimedia.
Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.)
El Reconocimiento de voz y escritura.
Las Computadoras Ópticas (luz, sin calor, rápidas).
Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas).
La Mensajería y el Comercio Electrónico.
La Realidad Virtual.
Las Redes Inalámbricas (WiMax, WiFi, Bluetooth).
El Súper Computo (Procesadores Paralelos Masivos).
Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCIA).





En esta generación se espera llegar a los Sistemas Expertos (imitar el comportamiento de un profesional humano), para esto se emplearán microcircuitos con inteligencia, en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema, la famosa "Generación de la Inteligencia Artificial".

El propósito de la Inteligencia Artificial es equipar a las computadoras con inteligencia humana y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la computadora aprenderá a partir de sus propias experiencias usará sus datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.


La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales:


Sistemas Expertos



Un sistema experto es un sofisticado programa de computadora; posee en su memoria y en su estructura una amplia cantidad de saber y sobre todo, estrategias para depurarlo y ofrecerlo según los requerimientos, convirtiendo al sistema en un especialista que está programado. Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar, exploración petrolera, etc. Se programa a la computadora para reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas, sacar las mismas conclusiones iniciales, verificar de la misma manera la exactitud de los resultados y redondear las ideas dentro de principios bien definidos.





Lenguaje Natural



Consiste en que las computadoras y sus aplicaciones en robótica puedan comunicarse con las personas sin ningún problema, ni dificultad de comprensión, ya sea oralmente o por escrito. Hablar con las máquinas y que éstas entiendan nuestra lengua y también que se hagan entender en nuestra lengua.





Robótica



Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots. Los Robots son dispositivos compuestos de sensores que reciben Datos de Entrada y que están conectados a la computadora. Esta recibe la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente. Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de fabricación, por ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc.






Reconocimiento de la Voz



Las aplicaciones de reconocimiento de voz tienen como objetivo la captura, por parte de una computadora, de la voz humana para el tratamiento del lenguaje natural o para cualquier otro tipo de función.


Leer más...

jueves, 28 de agosto de 2014

El Computador

Definición

  

Se podria definir como una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.





Partes



El computador desde sus inicios ha estado en constantes cambios, tanto en su parte física (hardware) como en su parte lógica (software). Los avances tecnológicos han supuesto una serie de cambios en el computador, teniéndose que adaptar las partes del computador para dar cumplimiento a las nuevas exigencias requeridas por los usuarios a través de la nueva tecnología que esté disponible en el momento.

Dentro de la parte física del computador podemos destacar los dispositivos de almacenamiento, de procesamiento de datos, de entrada y salida, de comunicación entre otros, cada uno cumpliendo distintos roles que en definitiva dotan al computador de una gran versatilidad de funciones.
Las partes del computador en cuanto a hardware son:

MONITOR



 Este es un dispositivo de salida del computador, nos permite ver la información que el computador nos quiere mostrar, es decir la información desplegada por los programas, películas, fotografías, documentos de office, etc. Suelen ser de aspecto rectangular debido al formato de cine y en la actualidad los tenemos en distintos tipos: LED, LCD, LED-LCD, PLASMA dependiendo de la tecnología usada y el consumo energético del monitor

TECLADO




 Es un elemento de entrada del computador, es básicamente una matriz de teclas como la de la máquina de escribir pero con más teclas que agregan mayor funcionalidad y acceso más rápido a aplicaciones y/o servicios. Se usa para ingresar información al computador cada vez que este pregunte por un dato, ya sea en un chat, cuando redactamos una carta o cuando navegamos por internet.


MOUSE




Este dispositivo permite desplazarnos dentro del área visual que se despliega en el monitor, con la finalidad de poder acceder de manera simple e intuitiva (mediante un cursor) a nuestros programas y archivos.

IMPRESORA



La impresora es un dispositivo de salida del computador, permite imprimir en algún medio material como el papel lo que estemos visualizando en el monitor del computador. Existen impresoras para uso de hogar que básicamente imprimen documentos, cartas y pequeñas fotografías, pero también existen las impresoras de uso comercial que están enfocadas a la impresión de documentos donde se requiere una gran calidad de imagen como podría ser un plano de una construcción o un anuncio publicitario de gran escala.

MICRÓFONO



Dispositivo de entrada, permite que el computador pueda escuchar nuestra voz y el sonido del medio ambiente. Principalmente usado para comunicarse a través de Internet.

PARLANTES


Los parlantes o bocinas se usan para poder reproducir el sonido que el computador este procesando, tanto de juegos, videos, música entre otros.

DISCO DURO


Este dispositivo es el encargado de almacenar toda nuestra información en el computador, desde el sistema operativo hasta nuestra música, pasando por fotografías, videos, trabajos y otros. Su capacidad se mide en Giga Bytes siendo los más modernos de 750 o 1000GB  (1 Terabyte) en adelante. Un aspecto a considerar es la memoria cache y el tipo de conexión, mientras más memoria cache tenga mejor, y si es de conexión SATA3 mejor aún.

PROCESADOR



circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso dedatos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).

MEMORIA RAM



La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga inseparable del microprocesador, con el cual se comunica a través de los buses de datos.
Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes de poder procesarlos los tiene que llevar a la memoria principal.
Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la información que estuviera almacenada en ella.
por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. otros andarán más rápido si el sistema cuenta con más memoria RAM.

UNIDA CD/DVD 




la unidad óptica nos permite ingresar información al computador y también extraer información desde el computador, mediante alguno de los formatos de disco compacto actuales: CD, DVD o Bluray

TARJETA MADRE





La placa base, también conocida como placa madre o placa principal (en inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora. Es una parte fundamental para armar cualquier computadora personal de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar (chipset), que sirve como centro de conexión entre el microprocesador (CPU), la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.

Va instalada dentro de una carcasa o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes internos.

La placa madre, además incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

GABINETE CASE




Es una estructura metálica que agrupa a la placa madre y a los demás dispositivos internos del computador. Provee protección adicional a los dispositivos que se almacenan dentro de él.
Leer más...

Historia del computador

Historia y Evolucion

Durante siglos la gente vivió sobre la tierra sin llevar registros ni archivos. Pero en la medida en que se formaron las organizaciones sociales y se tornó más complejo el tejido social, se fueron haciendo necesarias adaptaciones e innovaciones de diversa índole




En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

                                                      

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

                                                      

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.


Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulaso tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

                                                     

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.


A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
                                                         

                                                        


A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.


                                                       

Cronologia


Año 4000 a 3000 a.C. Invención del Ábaco, en China, instrumento formado por un conjunto de cuerdas paralelas, cada una de las cuales sostiene varias cuentas móviles, usadas para contar, se desarrollo hasta reflejar el sistema decimal, con diez cuentas en cada cuerda.

Año 1300 a 1500 d.C. En el imperio Inca es usado el sistema de cuentas, mediante nudos en cuerdas de colores, para mantener un registro y calculo de los inventarios de granos y ganado.

1617 John Napier desarrolla los vástagos de Napier, formados por un conjunto de piezas con números grabados en ellas, que podían ser usadas para multiplicar, dividir y extraer raíces.

                                                                   
1642 Blaise Pascal construye el primer calculador mecánico, que consistía en un conjunto de ruedas, cada una de las cuales registraba un dígito decimal, y al girarse en diez pasos producía un paso de rotación en la siguiente.

1662 William Oughtred inventa la regla de cálculo.

1871 Gottfried Wilheim Von Leibnitz mejora el diseño de Pascal.

1801 Joseph Marie Jackard perfecciona la primera máquina que utiliza tarjetas perforadas; ésta era un telar, que podía tejer automáticamente diseños complejos, de acuerdo a un conjunto de instrucciones codificadas en las tarjetas perforada.

                                                                   

1822 Charles Babbage construye un pequeño modelo operativo de un calculador llamado “Máquina de Diferencias”

1829 Charles Xavier Thomas, construye el primer calculador que ejecuta las cuatro operaciones aritméticas en forma exacta.

1872 Frank Stephen Baldwin inventa una calculadora con teclas, basada en los principios de la máquina de Charles Thomas.

1887 Hernan Hollerith, un estadista, hizo realidad su idea de la tarjeta de lectura mecánica, y diseñó un aparato que se llamo “Máquina de Censos”. Después del censo de 1890, Hollerith trasformó su equipo para uso comercial y estableció sistemas de estadísticas de carga para los ferrocarriles. En 1896, fundó la Compañía de Máquinas de Tabulación, para hacer y vender su invento. Posteriormente esta empresa se fusionó con otras para formar lo que hoy se conoce como IBM.
                                                               

El procesamiento de tarjetas perforadas se basa en una idea simple: los datos de entrada se registran inicialmente en una forma codificada, perforando huecos en las tarjetas, y estas luego alimentan a las máquinas, las cuales realizan las diferentes etapas del proceso.

1925 Vennevar Bush y sus colaboradores construyen el primer Computador analógico de gran escala.

1937 Howard Aiken de la Universidad de Harvard en Massachussetts comienza a construir una máquina calculadora automática, el Mark I, que pudiera combinar las capacidades técnicas de la época con los conceptos de tarjetas perforadas desarrolladas por Hollerith. En 1944 el proyecto fue culminado.

                                                             

El Mark I es considerado el primer Computador digital de proceso general. La máquina se basaba en el concepto de aceptar datos por medio de tarjetas perforadas utilizada como entrada de datos (INPUT), realizaban cálculos controlados por un relex electromagnético y contadores aritméticos mecánicos y perforaba los resultados en tarjetas como salidas (OUTPUT).

1943 - 1946 J. Presper Ecker y John Mauchly construyen el primer Computador completamente electrónico, el E.N.I.A.C. (Electronic Numerical Integrator And Calculator), pesaba aproximadamente 30 toneladas, ocupaba un espacio aproximado de 1.500 pies cuadrados y usaba 18.000 tubos. ENIAC podía resolver en un día lo que manualmente tardaría 300 días.

1944 John Von Neumann desarrolla el concepto de los programas almacenados, es decir, un conjunto de instrucciones guardadas en una unidad de almacenamiento, que luego son ejecutadas en forma secuencial. Basándose en este concepto, Ecker y Mauchly diseñan el ENIVAC, que fue terminado en 1952.

                                                            





Leer más...