lunes, 20 de julio de 2009

Primera Unidad


1. HISTORIA Y EVOLUCIÓN DE LOS COMPUTADORES

Antes de disponer de palabras o símbolos para representar los números, el hombre primitivo empleaba los dedos para contar. Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.

• El Ábaco

El antepasado del ábaco consistía en unas piedras introducidas en unos surcos que se practicaban en la arena. Estas piedras móviles llevaron al desarrollo del ábaco, que ya se conocía en el año 500 a. c., en Egipto. El Abaco Romano era de madera y las piedras se movían a lo largo de unas ranuras talladas en una tabla. La palabra cálculo significa piedra; de este modo surgió la palabra cálculo.
El origen de la palabra ábaco no es muy claro; suele considerarse que proviene de la palabra fenicia abak, término que designa una superficie plana cubierta de arena, sobre la cual se pueden dibujar figuras. Unas formas de las palabras contar o calcular aparece en otras lenguas, como abg, que significa polvo y es de origen semítico, o abakión, en griego, y que se refiere a una tabla de cálculo marcada. Muchos pueblos utilizaron piedras con el mismo objeto; por ejemplo, los Incas peruanos empleaban cuerdas con nudos para su contabilidad que llamaban quipos. Con el tiempo se inventó el ábaco portátil que consistía en unas bolitas ensartadas en un cordón que a su vez se fijaban en un soporte de madera. Gracias al ábaco pudieron funcionar con cierta agilidad los negocios en el mundo antiguo y los comerciantes sumar, restar, multiplicar y dividir fácilmente. El uso del ábaco continuó en Europa hasta la Edad Media, pero cuando gracias a los árabes se implementó el sistema de numeración decimal, el uso de la Tabla de Cálculo o ábaco comenzó a declinar.
En 1946 se celebró en Japón una competencia de rapidez de cálculo entre un norteamericano que empleaba una calculadora y un japonés que utilizaba un ábaco, ganó el japonés. Cuando un experto maneja un ábaco puede ser rapidísimo sumando y restando, pero no tanto multiplicando y dividiendo ya que los resultados intermedios no pueden registrarse en el ábaco. Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda Europa.

• La Pascalina

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 un joven matemático francés de 19 años llamado Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

• La Máquina Analítica y Diferencial

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
En julio de 1823, el gobierno británico consintió en financiar la construcción de una versión mejorada de la máquina diferencial. La industria de fabricación de herramientas de aquella época, desafortunadamente no era lo suficientemente buena como para construir algunas de las partes y herramientas para fabricar sus piezas, lo que retardó considerablemente el proyecto. Con mucha frecuencia se excedía el presupuesto y algunas veces se detenía la producción por falta de fondos. La Máquina Diferencial no llegó a salir al mercado en versión mejorada, por tal razón en el año 1833 Babbage se propuso mejorar sustancialmente la Máquina de Diferencias, pero esta vez en la construcción de una segunda máquina, la cual bautizó con el nombre de Máquina de Diferencia y podía ser programada para evaluar el amplio intervalo de funciones diferentes.
Babbage no pudo completar ninguna de sus dos ingeniosas máquinas, ya que el gobierno británico, preocupado por la falta de progreso, le retiró la subvención económica. Tuvo que pasar un siglo para que sus ideas similares a estas fueran puestas en prácticas.

• Máquina de Leibnitz

El siguiente gran paso en el perfeccionamiento de las máquinas calculadoras lo dio el 1671 el matemático alemán Gottfried Wilheim Leibnitz. Los elementos claves en la máquina de Leibnitiz eran los cilindros escalonados. Esta máquina era más perfeccionada que la de Pascal, ya que podía multiplicar, dividir y obtener raíces cuadradas. Fue la mente más universal de su época. A este inventor se le atribuye el haber propuesto una máquina de calcular que utilizaba el sistema binario, todavía utilizado en nuestros días por los modernos computadores. Cuando a comienzos del siglo XIX se construyeron las primeras máquinas de calcular comerciales construidas por Charles Xavier Thomas, se incorporaron a ellas las ruedas escalonadas de Leibnitz.

• Las Tarjetas Perforadas

A finales del siglo XVIII y principios del XIX, tuvo lugar un importante hecho para el posterior desarrollo de los ordenadores: la automatización de la industria textil.
En el siglo XVIII, Francia estaba a la cabeza en la producción de tejidos elegantes y lujosos y algunos fabricantes se esforzaban por encontrar el modo de automatizar el proceso de fabricación para reducir los costos. Basil Bouda y Falcon en 1728, intentó programar el diseño del tejido por medio de fichas perforadas. De este modo, sólo determinadas agujas del telar podían atravesar los agujeros, pudiéndose conseguir así el dibujo de tejidos.
La cinta y las fichas o tarjetas perforadoras, funcionaban como un programa para el telar. Esta técnica es la que se empleaba posteriormente para la introducción de datos en los ordenadores.
No fue hasta principios del siglo XIX, en 1805, cuando otro francés Joseph Marie Jacquard, perfeccionó la técnica de controlar las agujas tejedoras del telar mediante tarjetas perforadas. Las agujas podían solamente pasar por los lugares en los que había agujeros. Colocando las fichas en forma de correa móvil, se podían tejer automáticamente complicados diseños.
Jacquard diseño en 1805 un telar que actualmente se denomina como su diseñador, con el resultado de que pocos años después aparecieron miles de telares con capacidad para reproducir perfectos dibujos a precios asequibles.
El empleo de fichas perforadas fue también una aplicación muy afortunada y avanzada de los números binarios en la programación. El 0 equivale a que no hay perforación y el 1 a que hay perforación. Por lo tanto la perforación no era más que un lenguaje que comunicaba instrucciones al telar mecánico. En los modernos ordenadores, las instrucciones básicas siguen siendo binarias, y es lo que se denomina Lenguaje de Máquina.

• La Tabuladora y El Censo De 1890

Hacia 1887, surgió en Estados Unidos la idea del proceso automatizado de datos a causa de la urgente necesidad de confeccionar el censo de 1890. Para procesar manualmente los resultados del último censo de 1880, habían hecho falta siete largos años, y por lo tanto, se pensaba que para procesar el de 1890, serían necesarios más de diez años, debido al espectacular crecimiento de la población entre 1880 y 1890.
El gobierno de los Estados Unidos nombró en 1889 un comité para estudiar la forma de procesar los datos del censo y convocó un concurso para otorgar un contrato al mejor producto. Se presentaron tres propuestas adjudicándose el encargo con su sistema eléctrico de tabulación, ideado en 1887.

• La IBM

Luego del éxito de Hollerith en el censo norteamericano, varias naciones incluyendo Austria, Canadá y Rusia consideraron el uso de la máquina para los censos y Hollerith comenzó a rentar su sistema. En 1896 fundó la Tabulating Machine Company.
Esta compañía se componía en su estructura básica del financiamiento de una persona adinerada, Thomas J. Watson, Sr. quien suplía los recursos necesarios para la construcción de las máquinas tabuladoras; y del ingenio de Herman Hollerith para construir las máquinas. Con el tiempo surgieron problemas debido a que mientras Hollerith insistía en desarrollar nuevos modelos, Thomas Watson estaba más interesado en incrementar la producción del modelo existente. Estas diferencias desembocaron en la venta de los derechos de la compañía por parte de Hollerith a Thomas Watson en 1912 y este último fusionó la compañía con un consorcio naciente del cual nacería posteriormente la International Business Machine – IBM. En 1937, se puso en marcha el programa de Seguridad Social en Estados Unidos, que fue la mayor operación de proceso de datos realizada hasta entonces. Hicieron falta 415 máquinas IBM para perforar, clasificar, verificar y archivar medio millón de personas.

• La Mark-I y La ABC

En 1937, Howard Aiken, profesor de Harvard, se fijó la meta de construir una máquina calculadora automática que combinara la tecnología eléctrica y mecánica con las técnicas de tarjetas perforadas de Hollerith. Con la ayuda de estudiantes de postgrado e ingenieros de la IBM, el proyecto se completó en 1944. El aparato terminado se denominó la computadora digital Mark I. Las operaciones internas se controlaban automáticamente con relevadores electromagnéticos, y los contadores aritméticos eran mecánicos; así, la Mark I era una computadora electromecánica. En muchos aspectos era el sueño de Babbage hecho realidad.
El primer prototipo de computadora electrónica se concibió en el invierno de 1937-1938 por el doctor John Vincen Atanasoff, profesor de física y matemática en el Iowa State College. Como ninguna de las calculadoras disponibles en ese entonces era adecuada par sus necesidades, Atanasoff decidió construir la suya. Empleando conceptos de diseño que cristalizaron en su mente a altas horas de una noche de invierno en un bar a al orilla de la carretera en Illinois, Atanasoff formó un equipo con Clifford Berry, su asistente de postgrado, y comenzó a construir la primera computadora electrónica. La llamaron ABC (Atanasoff-Berry Computer). La ABC empleaba bulbos al vacío para almacenar datos y efectuar operaciones aritméticas y lógicas.
Durante 1940 y 1941 Atanasoff y Berry se reunieron con John W. Mauchly y le mostraron su trabajo. Mauchly, que trabajaba en la School of Electrical Engineering de la Universidad de Pennsylvania, comenzó a pensar en la forma de construir una computadora de aplicación general (la ABC se diseñó con el objetivo específico de resolver sistemas de ecuaciones simultáneas). Mauchly formó un equipo con J. Presper Eckert Jr., estudiante de postgrado de ingeniería en la Moore School, para organizar la construcción de ENIAC a principios de la década de 1940.

• Electronic Numeric Integrator And Calculator - ENIAC

Fue la primera computadora electrónica de aplicación general que entró en funcionamiento. Financiada por el ejército de Estados Unidos, se construyó en la Moore School como proyecto secreto durante la Segunda Guerra Mundial debido a que el ejército se interesaba en la preparación rápida de tablas de trayectorias de proyectiles. La ENIAC, con 30 toneladas de peso, llenaba un cuarto de 6 m x 12 m, contenía 18,000 bulbos, y podría realizar 300 multiplicaciones por segundo y cálculos matemáticos 1,000 veces más rápido que cualquier máquina sumadora de su tiempo. Este gigante tenía que programarse manualmente conectándola a tres tableros que contenían más de 6,000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. Las instrucciones de operación de esta computadora no se almacenaban internamente más bien se introducían por medio de tableros de clavijas e interruptores localizados en el exterior. El ejército utilizó la ENIAC hasta 1955.

• Los Intérpretes

Hasta ese punto, los programas y datos podrían ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras entienden. El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los números binarios. En 1952, Grace Murray Hopper una oficial de la Marina de Estados Unidos, desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible por la máquina. Más tarde, desarrolló el llamado COBOL (Common Business Oriented Language), un proyecto financiado por compañías privadas y organismos educativos, junto con el gobierno federal durante la última parte de los años 50. COBOL permitía que un programa de computadora escrito para una máquina en especial, pudiera correrse en otras máquinas sin tener que recodificarse. De pronto, los programas se transportaban fácilmente, y el mundo de los negocios comenzó a aceptar a las computadoras con entusiasmo.

• Primeros Ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

• Ordenadores electrónicos

1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la primera máquina en poseer todas las características de una verdadera computadora.
La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John Von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

• Circuitos integrados

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.



http://www.youtube.com/watch?v=YTuV8vkM700

1.1 LAS GENERACIONES DE LAS COMPUTADORAS


Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación.

1.1.1 La Primera Generación, (1941 a 1958)

Las computadoras de la primera generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura / escritura colocaba marcas magnéticas. Como los radiorreceptores del mismo tipo, esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
J. Presper Eckert y John W. Mauchly contribuyeron al desarrollo de computadoras de la primera generación formando una compañía privada, y construyendo UNIVAC 1, que el comité del censo utilizó para evaluar el de 1950. La Interrnational Business Machine (IBM), que vendía equipos de tarjetas perforadas y no había logrado el contrato para el censo de 1950 comenzó a construir computadoras electrónicas, y rápidamente se colocó como fuerte contendiente en el mercado. Aunque caras y de uso limitado, las computadoras fueron aceptadas rápidamente por las compañías privadas y el gobierno. A la mitad de los años 50, IBM y Remington Rand, que habían comprado la compañía de Eckert y Mauchly, se consolidaban como líderes en la fabricación de computadoras. Sus clientes incluían a las empresas Sylvania, General Electric, y el gobierno federal. La IBM 650 entró en servicio por primera vez en Boston a fines de 1954. Siendo una máquina relativamente barata para aquella época, tuvo gran aceptación, y dio a la IBM liderazgo en la producción de computadoras en 1955. Desde 1956, la IBM ha sido el fabricante de computadoras más grande del mundo.
En el período de 1954 a 1959, muchos negocios adquirieron computadoras para procesar datos, aun cuando estas máquinas estaban diseñadas para aplicaciones científicas. Los no científicos solían considerar la computadora como un instrumento de contabilidad y las primeras aplicaciones de negocios se diseñaron para procesar tareas rutinarias como son las nóminas. Se subestimó el potencial real de las computadoras y muchas fueron adquiridas por el prestigio que conferían a la organización.
• Características Principales
Tecnología: válvulas de vacío, eran máquinas voluminosas, de alto consumo, caras y de vida limitada.
Avances del equipo físico: en la memoria se pasa de registros de válvulas a núcleos de ferrita; en la memoria secundaria, de tarjetas y cintas perforadas a tambores y cintas magnéticas. Además se introduce el control de interrupciones.
Avances del equipo lógico: utilización de aritmética binaria, programación en ensamblador (para ayudar al programador).
• Principales Equipos que se destacan
Mark I.
Un dispositivo electromecánico, basado en relés, fabricado para la Marina de EU por Howard Aitken e ingenieros de la IBM. La ultima en su clase. Sustituida por la electrónica.
Colossus.
Descifrador de códigos de propósito especial fabricado por los británicos. Usado para descifrar los códigos de radio de los alemanes.
ABC.
Siglas de Atanasoff-Berry Computer, fabricada en la Univ. Estatal de Iowa. Conocida ahora como la primera computadora digital electrónica.
ENIAC.
La más famosa de las primeras computadoras, contenía más de 18.000 tubos de vacío. Fabricada para aplicaciones balísticas del Ejército de EU.
Manchester Mark I.
Producida por la Universidad de Manchester; la primera computadora con "programa almacenado". Hasta ese momento, todas las computadoras tenían que ser reprogramadas mediante cambios en el alambrado. Esto fue un gran avance.
UNIVAC I
Primera computadora creada por una firma comercial pertenecientes a John W. Mauchly y J. Prespert Eckert.
EDVAC, EDSAC, IAS, y las comerciales IBM 650, 701, 704, 709.

1.1.2 La Segunda Generación, (1959 a 1964)

En 1947, tres científicos de los laboratorios Bell, John Bardeen, William Shockley y Walter Brattain, ganaron el premio Nóbel al inventar y desarrollar el transistor, que era más rápido, confiable y 200 veces más pequeño que un bulbo o tubo electrónico, y requería menos electricidad. El transistor hizo posible una nueva generación de computadoras, más rápidas, pequeñas y con menores necesidades de ventilación. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. La escritura de programas de aplicación en lenguaje de máquina fue desplazada por el uso de lenguajes de programación de alto nivel. Los principales lenguajes de la época fueron FORTRAN para las tareas científicas y COBOL para los negocios. El COBOL, desarrollado durante la primera generación de computadoras, estaba ya disponible comercialmente. Los programas escritos para una computadora podrían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.
Las computadoras de la segunda generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas de reservación en líneas aéreas, control de tránsito aéreo, y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventaros, nómina y contabilidad. La Marina de Estados Unidos utilizó las computadoras de la segunda generación para crear el primer simulador de vuelo, Whirlwind. Al mismo tiempo que se desarrollaban los sistemas de la segunda generación se estaba creando una industria nueva, basada en la idea de integrar transistores y otros componentes para formar circuitos que pudieran colocarse en pequeños trozos de silicio. Una de las primeras compañías de esta industria fue Shockley Semiconductor, fundada en 1955 por William Shockley en su ciudad natal de Palo Alto, California. Algunos empleados de la compañía de Shockley se separaron más tarde para formar Fairchild Semiconductor, y a su vez gente de Fairchild Semiconductor formó otras varias compañías, incluyendo Intel Corporation. Dado que muchas de estas compañías estaban situadas en el valle de Santa Clara, cerca de la empresa de Shockley en Palo Alto, la gente empezó a referirse a la región como el valle del silicio (Silicon Valley).
• Características Principales
Tecnología: en 1948 se inventó el transistor en los laboratorios de la Bell. Pero hasta 1954 no construyeron el TRADIC en la Bell, que fue el primer computador transistorizado. Las ventajas del transistor son que es más pequeño, el consumo es menor y más barato que las válvulas. Con lo cual los computadores se hacen más asequibles.
Avances del equipo físico: se consolidan las memorias de ferrita. Aparecen los canales de E/S.
Avances del equipo lógico: aparecen los lenguajes de alto nivel (FORTRAN, COBOL, ALGOL, PL1). Se impone el procesamiento tipo batch o por lotes: ejecución automática y secuencial de los programas de usuario, uno a uno.
• Principales Equipos que se destacan
UNIVAC 1107, BURROUGH D-805, PDP-5 de DEC, y las científicas IBM 7070, 7090, 7094.

1.1.3 Tercera Generación, (1964 a 1970)

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Los sistemas de la segunda generación eran bastantes especializados. Se les diseñaba para procesar aplicaciones tanto científicas como no científicas, pero no se procuraba que funcionaran adecuadamente en los dos ambientes. Esta situación cambió cuando en 1964 cuando IBM anunció una tercera generación de equipo de cómputo: Su familia System 360 de macro computadoras. Cada uno de los procesadores de esta familia tenía un conjunto muy amplio de instrucciones internas que podía ejecutar. Algunas de esas instrucciones eran especialmente útiles en aplicaciones científicas, mientras que otras eran más apropiadas para procesamiento de archivos. De ese modo era posible utilizar la línea 360 de manera eficiente en los dos ambientes. Con la introducción del modelo 360, IBM capturó el 70% del mercado, dejando a RCA, General Electric y Xerox fuera del campo de las computadoras grandes. Sin embargo, la estandarización del modelo 360 permitió el crecimiento de los fabricantes de dispositivos de almacenamiento, cuyos periféricos eran compatibles con las series de IBM.
Para evitar competir directamente con la IBM, Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación y se extendió su uso entre 1960 y 1970. En 1960, DEC introdujo la primera mini computadora, la PDP-1 y en 1969 tenía ya una línea de exitosas mini computadoras. La tecnología de los circuitos integrados también provocó la expansión de la industria del software. Los programas estándares fueron reescritos para trabajar en las nuevas máquinas de circuitos integrados, e incluso en máquinas todavía en fase de desarrollo. Esta compatibilidad hacia el futuro permitió a las compañías usar su software anticuado después de modernizar su hardware.
• La multiprogramación
En el ambiente de computación centralizado de principios de los sesentas, los usuarios preparaban sus datos y los programas y después los llevaban al centro de cómputos para ser procesados. El centro de cómputo reunía todas estas tareas y las introducía por lotes a la computadora, a intervalos programados. El retraso inevitable que resultaba de este procesamiento por lotes era muy frustrante para algunos usuarios. Los retrasos eran demasiados irritantes para los estudiantes con tareas de programación, que a veces tenían que esperar varios días para localizar y corregir unos cuantos errores en sus programas.
Para corregir esta situación John Kemeny y Thomas Kurtz, profesores de la Dartmouth College, decidieron llevar más lejos algunos conceptos de tiempo compartido que se habían desarrollado en el Instituto Tecnológico de Massachussetts (MIT). Tiempo compartido es un término que se emplea para describir un sistema de proceso que cuenta con varias estaciones independientes, de baja velocidad (relativamente), en líneas susceptibles de utilizarse en forma simultánea. Cada una de las estaciones proporciona al usuario acceso directo al computador central. Kemeny y Kurtz desarrollaron programas especiales que permitían al procesador conmutar entre las distintas estaciones de estudiantes y llevar a cabo una parte del trabajo en el segmento de tiempo asignado a cada una, hasta finalizar el trabajo. La intención era dar al estudiante la ilusión de que nadie más estaba utilizando la computadora.
• El BASIC
Para mejorar el ambiente de cómputo interactivo que estaban creando, los profesores desarrollaron un lenguaje de programación fácil de aprender por parte de los estudiantes universitarios de todas las carreras. El objeto era que todos los estudiantes tuvieran un incentivo para utilizar con cierta frecuencia las estaciones de tiempo compartido. Este lenguaje – el BASIC – que representa las iniciales en inglés de “código simbólico de instrucciones de aplicación general para principiantes” fue todo un éxito en Dartmouth en ambos aspectos. Dartmouth utilizaba una computadora General Electric y el sistema BASIC de tiempo compartido se implantó en este equipo con la ayuda de ingenieros de GE, a resultas del éxito del sistema de Dartmouth, General Electric y otros fabricantes ofrecieron instalaciones de tiempo compartido y el uso del lenguaje BASIC a sus clientes en todo Estados Unidos.
• El Unix y el Lenguaje C
En 1969 se desarrollan en los laboratorios de AT&T Bell lo que sería el primer sistema operativo, el Unix. Antes de esto se requería que cada programador escribiera sus archivos en un tipo de formato que por lo general no era compatible con el de otro programador. Además, los programadores debían de preocuparse de tareas rutinarias como abrir archivos, cerrarlos, las colas de impresión, etc. Con la creación del sistema operativo esos pasos son encargados a la computadora misma, dando como resultado más tiempo al programador para ocuparse de los problemas reales. El Unix fue desarrollado en su mayor parte por Ken Thompson en una computadora DEC PDP-7, en un lenguaje también recién creado, el lenguaje C.
El lenguaje C tiene la ventaja sobre los otros leguajes de programación, que es de muy bajo nivel, al punto en que se pueden escribir programas con la misma rapidez y potencia que los programas escritos en lenguaje ensamblador. Sin embargo, cada tipo de computadora tiene un tipo de lenguaje ensamblador diferente, debido a que el lenguaje C es un lenguaje de alto nivel (no tan alto como los otros), los programas escritos en C pueden se transportados a otros computadores con un mínimo de cambios en sus estructuras básicas.
• El Microprocesador
A partir de 1965 cada año se duplicó el número promedio de componentes que se empacaban en una pastilla de silicio y este avance condujo a un suceso insólito: la creación de un microprocesador que podía colocarse en una sola pastilla. Un microprocesador contiene todos los circuitos necesarios para realizar funciones aritméticas lógicas y de control. Se puede construir una unidad de proceso completa con un microprocesador, unas cuantas pastillas de almacenamiento primario adicionales y algunos circuitos de apoyo.
El origen del microprocesador se remonta a finales de la década de 1960. En esta época, Víctor Poor, ingeniero en electrónica de la Datapoint Corporation, estaba trabajando en el diseño y desarrollo de computadoras de aplicación especial. Cada vez que se necesitaba un dispositivo diseñado a la medida, Poor y otros ingenieros iniciaban la labor de diseño desde cero. Esto le parecía a Poor un desperdicio considerable de tiempo. Lo mejor, razonaba Poor, sería colocar los elementos básicos de aritmética lógica y de control de una computadora en una sola pastilla de silicio. La pastilla podría producirse en grandes cantidades y después programarse de maneras diferentes para realizar tareas especiales. En 1969 Víctor Poor y Harry Pyle, otro joven ingeniero de la Datapoint, desarrollaron un modelo de pastilla microprocesadora. Dado que Datapoint Corporation no fabricaba componentes electrónicos, Poor llevó su modelo de “pastilla procesadora” a dos fabricantes de componentes, Texas Instruments e Intel Corporation, con la esperanza de que fabricaran la pastilla para Datapoint. Estas reuniones no produjeron decisiones inmediatas, pero los fabricantes de componentes estaban en libertad de utilizar el concepto de pastilla microprocesadora y lo hicieron.
A finales de 1969, un ingeniero de Intel llamado Marcian “Ted” Hoff presentó sus ideas para el diseño de un microprocesador a los representantes de una compañía de calculadoras japonesas. En este tiempo las calculadoras se construían a partir de pastillas de circuitos especializadas que podían realizar únicamente una función. Pero la pastilla nueva de Hoff podía programarse para llevar a cabo varias funciones de cálculo especializadas. El cliente japonés aceptó las ideas de diseño y se empezó a trabajar con la disposición interna de los componentes de la pastilla. Este primer microprocesador, el Intel 4004, podía ejecutar únicamente algunas instrucciones, y sólo podía manipular cantidades diminutas de datos en un momento dado; pero para el otoño de 1971 Intel había producido una pastilla más poderosa, el 8008 y Texas Instruments entregaba ya un microprocesador. En 1974 Intel produjo un tercer microprocesador, el 8080 y quedaron establecidas las bases para el desarrollo de una computadora personal (PC).
• Características Principales
Tecnología: se integran los transistores y aparecen los Circuitos Integrados (C.I.): SSI, MSI.
Máquinas: IBM 360. Aparecen las “Familias de Computadores”: computadores de distinta potencia y precio pero con la misma arquitectura y totalmente compatibles. Se produce una explosión de los mini-computadores: recursos más limitados pero muy asequibles (PDP-8,PDP-11).
Avances del equipo físico: tarjetas de circuito impreso (PCB); memorias electrónicas sustituyen a las de ferrita; aparecen las memorias cache; la CPU está basada en registros de propósito general.
Avances del equipo lógico: nuevos lenguajes de alto nivel (BASIC, PASCAL); gran avance en el S.O.; aparece la multiprogramación.
• Principales Equipos que se destacan
IBM 360, PDP-8, PDP-11.

1.1.4 Cuarta Generación, (1971-a la fecha)

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio, y la colocación de muchos más componentes en un chip. Intel llevó esta idea a la conclusión lógica creando el microprocesador, un chip que contiene todos los circuitos requeridos para hacerlo programable.
El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Un chip puede contener dos de los componentes del CPU, la unidad de control y la unidad aritmético-lógica, un tercer componente, la memoria primaria (también en chips), se maneja por separado.
• Las computadoras personales (PC’s)
El primer anuncio de una computadora personal construida a partir de un microprocesador apareció en el número de marzo de 1974 de QST, una revista para aficionados a la radio. El producto que se anunciaba era la Scelbi-8H, y sólo se vendieron cerca de 200 de estos procesadores. Pisándoles los talones a la Schelbi-8H venía la Altair 8800. La Altair, diseñada con base en una pastilla de Intel por una compañía de Alburquerque, Nuevo México, llamada MITS (Micro Intrumentation Telemetry Systems), se ofrecía originalmente en forma de un equipo para ensamblar por menos de 400 dólares. El artículo principal del número de enero de 1975 de la revista Popular Electronics trataba de esta máquina y es posible que dicho artículo haya iniciado la explosión de las computadoras personales. Para 1972, dos jóvenes programadores, Bill Gates y Paul Allen habían fundado una empresa llamada Traf-O-Data, en esta fecha Gates y Allen estaban completando un programa que podía traducir instrucciones escritas en BASIC a los códigos de lenguaje de máquina que requerían los procesadores de Intel. La Traf-O-Data se convirtió en Microsoft Corporation para vender el programa de BASIC Gates-Allen y la licencia del Microsoft BASIC se concedió a MITS a finales de 1975.
En la primavera de 1976 un joven técnico de la Hewlett-Packard llamado Steve Wozniak compró un microprocesador de MOS Technology y se propuso construir una computadora a partir de él. Esta computadora, la Apple I, se exhibió en el Homebrew Computer Club (club de computadoras hechas en casa) en el Valle del Silicio. Wozniak ofreció su diseño a Hewlett-Packard, que no se interesó por él. Un amigo de Wozniak, Steve Jobs, le propuso que formaran una compañía para vender la Apple. Sólo se construyeron cerca de 200 Apple I, pero a fines del verano Wozniak ya estaba trabajando sobre el diseño de la Apple II. Con la ayuda financiera y administrativa de Mike Markkula, antiguo ingeniero y ejecutivo de mercadeo de Intel, Apple se convirtió repentinamente en un competidor importante en la industria de las computadoras. A finales de 1977, las máquinas que dominaban el mercado eran la Apple II, el modelo TRS-80 de la Radio Shack Division de la Tandy Corporation y las docenas de otras marcas que estaban diseñadas para seguir los conceptos de interconexión eléctrica utilizados en la computadora Altair. Como era de esperarse, la mayor parte de los programas de aplicación escritos antes de 1980 estaban diseñados para utilizarse con estas computadoras.
En el otoño de 1978 Personal Software presenta VisiCalc, que juega un papel importante en la revolución de las microcomputadoras. Esta popular hoja de cálculo facilito el análisis numérico en el escritorio y permitió a cualquier persona escribir lo que equivalía a programas sin tener que aprender un lenguaje de programación complejo. El programa era realmente una “calculadora visible” y su nombre es la asociación abreviada de esas palabras. La idea de este programa surgió de Dan Bricklin, que en esa época era estudiante de la Harvard Business School. Bricklin estaba utilizando las columnas e hileras de unas hojas de papel de contabilidad para analizar problemas de planeación financiera. Pero se requerían cálculos interminables cada vez que se hacía una suposición financiera diferente. Bricklin pensó que si se sustituían las hojas de papel por un “pizarrón electrónico” y “gises electrónicos”, la computadora podría encargarse de manipular los números. Bricklin le pidió a un programador amigo suyo llamado Bob Frankston que le ayudara a convertir su idea en un producto comercial. Frankston agregó varias funciones más y escribió el primer programa para la Apple II. VisiCalc se convirtió en un enorme éxito y fue responsable por sí solo de la venta de miles de Apple, muchas computadoras Apple II fueron vendidas con el propósito exclusivo de ejecutar VisiCalc. A medida que aparecía una nueva computadora, aparecía un nuevo programa clónico de VisiCalc por ejemplo, SuperCalc para las computadoras CP/M, Lotus 1-2-3 para IBM, y Excel para Macintosh. A finales de los 70’s e inicio de los 80’s, las máquinas líderes en el ramo se estaban utilizando en todas partes: en los hogares, escuelas y lugares de trabajo. Además, al comenzar la década de 1980, compañías como Atari y Commodore estaban produciendo sistemas de bajo costo para utilizarse en los hogares y se introducía una nueva generación de modelos de escritorios más poderosos para emplearse en las escuelas y oficinas. IBM entró en el mercado con su familia de computadoras PC logrando enorme éxito, aparecieron en forma paralela compañías pequeñas que ofrecían equipos y programas nuevos.
IBM introduce su primera PC basada en el Intel 8088. Microsoft negocia con IBM para proporcionar el sistema operativo, PC DOS 1.0. Se ha informado que el código original de DOS fue comprado por Microsoft a un programador de Seattle por US$75.000. En 1982 Lotus 1-2-3 reemplaza a VisiCalc y se convierte rápidamente en una de las aplicaciones mas exitosas. Apple intenta penetrar el mercado empresarial con la Lisa, pero la arquitectura cerrada (poca habilidad de añadir productos de otros fabricantes) dificulta su aceptación.



http://www.youtube.com/watch?v=y-1_W0BKcXE

1.2 CRONOLOGÍA DE LAS COMPUTADORAS PERSONALES

1983: IBM debuta su IBM PC XT con un disco duro de 10MB. Compaq produce un sistema compatible con la PC, pero transportable. Kaypro ofrece un sistema similar, con el CRT integrado, pero basado en CP/M. Microsoft Word 1.0 llega al mercado con poca espectacularidad, pero demostrando el interés de Microsoft en el software de aplicaciones.
1984: IBM introduce la IBM PC AT, un sistema basado en el Intel 80286 con varias innovaciones, incluyendo un bus de expansión de 16 bits, un disco duro de 20 MB, y 512 K de RAM. Apple abandona la Lisa en favor de su nueva línea de computadoras personales, la popular Macintosh.
1985: Aparecen Microsoft Windows 1.0, Windows 2.03 y GEM de Digital Research, demostrando así que el mundo de la PC se ha dado cuenta de que las aplicaciones gráficas estilo Mac, como Aldus PageMaker, son muy superiores a las de DOS.
1986: Intel introduce el microprocesador de 32 bits 80386 y Compaq desarrolla rápidamente la primera computadora basada en el chip. IBM comienza a perder terreno frente a los fabricantes de sistemas clonicos.
1987: La Toshiba T1000, basada en el Intel 80C88, crea un nuevo estándar de miniaturización. IBM intenta recuperar el mercado de la PC lanzando la familia PS/2. Estas PCs están basadas en una arquitectura Micro Channel no estándar y nuevo sistema operativo llamado OS/2 (creado en colaboración con Microsoft). Aparece en el mercado WordPerfect 4.2, que se convierte en el procesador de texto mas exitoso hasta el momento.
1988: OS/2 1.1 añade una interfaz gráfica, llamada Administrador de Presentaciones, al sistema operativo de 16 bits de IBM.
1990: La avalancha de interfases gráficas continua con la salida de Windows 3.0. Dieciocho meses después, Microsoft saca al mercado de Windows 3.1. Miles de aplicaciones comienzan a emigrar de DOS a Windows.
1991: Microsoft e IBM rompen sus relaciones comerciales y crean dudas sobre el futuro de OS/2. IBM continua apoyando el OS/2 y produce las versiones 2.0 y 2.1. Los acontecimientos de estos últimos años son frecuentes y cuantiosos. Las innovaciones a nivel de CPU son numerosas, pero el futuro de la computación personal se esta decidiendo por la arquitectura CISC (Computadora de Juego de Instrucciones Complejo) o RISC (Computadora de Juego de Instruciones Reducido).
Las líneas de batalla se dividen entre el chip PowerPC (creado por una colaboración de IBM, Apple y Motorola), el Alpha chip de Digital Equipment, el Pentium de Intel (y los chips clónicos de varios fabricantes).
Con la creciente marea de maquinas de escritorio de 32 bits, los principales productores de software se apresuran para tratar de capturar el mercado de los sistemas operativos de 32 bits. Los contendientes, por el momento, son: Microsoft con Windows NT y Windows 95, IBM con OS/2 Warp, Novell con UnixWare, SunSoft con Solaris, y otras derivadas de Unix (como el NeXT Oparating System de Steven Jobs).
La tendencia actual en el software de aplicaciones es la integración. Los proveedores de software se ven forzados a ofrecer paquetes completos y bien integrados para sobrevivir. En estos momentos se atraviesa por una etapa crucial de la computación donde habrá ganadores y perdedores en todos los aspectos de la tecnología. Lo que si se sabe es que la industria de la computación seguir ampliando sus limites a una velocidad vertiginosa que no da señales de aminorar.
• Características Principales
Los microprocesadores derivados de circuitos integrados han puesto las computadoras en el escritorio de la oficina. La cuarta generación, que comprende desde 1971 hasta el presente, se distingue por el microprocesador y la computadora personal. Las computadoras de la cuarta generación son aproximadamente 100 veces mas pequeñas que sus antecesoras y tan potentes como aquellas, y quizás mas.
Tecnología: se incrementa la escala de integración (LSI, VLSI). Se puede integrar en un chip todo un procesador. Los computadores con microprocesador se llamaron microcomputadores.
Avances del equipo físico: más integración de las memorias; los discos duros tienen más capacidad; aparecen los coprocesadores para el tratamiento en punto flotante FPU y los gestores de memoria o MMU.
Avances del equipo lógico: se normaliza el uso de la memoria virtual; los S.O. permiten la multitarea y el multiproceso; se producen avances en los lenguajes de alto nivel.
• Principales Equipos que se destacan
Se pueden distinguir 4 fases:
1ª fase (1971 - 74): microprocesador de 4 bits, como el Intel 4004 con 2,300 TRT's y LSI.
2ª fase (1974 - 76): microprocesador de 8 bits, como el 8080 de Intel con 5,000 TRT's, el 6800 de Motorola con 6,000 TRT's, o el Z80 de Zilog.
3ª fase (1976 - 80): microprocesador de 16 bits, como el 8086 de Intel con 29,000 TRT's, el Z8000 de Zilog o el 68000 de Motorola.
4ª fase (1980 - 87): microprocesador de 32 bits, como el 80286 con 134,000 TRT's, el 80386 con 275,000 TRT's de Intel, o el 68020 y el 68030 de Motorola.
• Epoca actual
En esta época las computadoras han inundado prácticamente cada rincón del planeta, a tal punto que no se puede pensar hoy en día en una oficina, escuela o institución moderna sin hacer una relación a la informática y las computadoras. Los grandes empresarios de la computación, IBM, Microsoft, Intel, etc. han logrado lo que se propusieron: hacer que las computadoras personales estén en los hogares de cientos de personas.
La red internacional de datos, Internet ha hecho posible que cada ciudadano de este planeta tenga cualquier tipo de información al alcance de su mano con solo tener acceso a una computadora personal.
En tan solo 25 años, desde 1973 hasta 1998 los sistemas computacionales han tenido una rapidez vertiginosa, reduciendo grandemente el tamaño de los equipos y aumentando su capacidad de producción y rapidez. ¿Qué nos depara el futuro? Eso, aún está por verse

1.3 PARTES DE UNA COMPUTADORA





Dispositivo mecánico-electrónico que procesa Información (numérica, alfanumérica) capaz elaborar gráficos, imágenes , diseños , sonidos y le brinda una gama de información al usuario de una manera fácil , sencilla y Práctica .

• Hardware: son los componentes físicos: CPU y dispositivos periféricos
• Software: Conjunto de programas escritos para la computadora.
• Programa: Conjunto de instrucciones escritas que hacen funcionar la computadora.

1.3.1 Partes de una computadora:

Las partes de una computadora son:
 Monitor ò Pantalla
 Ratón ò Mouse
 Teclado
 Cpu
 Impresora
 Cornetas
 Micrófono
 Cámara
 Scanner
 Regulador de Voltaje
 Unidad de CD.
 Unidad de Diskette y otros.

1.3.2 Unidades de Medición Informáticos

• Bit: es la abreviación de dígito binario (0 ó 1), la parte más pequeña de información que puede haber en una computadora. Se trata de dos posiciones: el uno implica que está encendido y el 0 que está apagado.
• Byte: es la unidad de información fundamental de las computadoras y corresponden a ocho bits continuos. Representa un caracter de datos o instrucción.
• Kilobyte (Kb): corresponde a alrededor de mil bytes (1024 bytes).
• Megabyte (Mb): indica mil kilobytes, es decir alrededor de un millón de bytes.
• Gigabyte (Gb): señala mil megabytes o unos mil millones de bytes.
• Terabyte (Tb): equivale a mil gigas o a algo más de un billón de bytes.
Para poder sacar cálculos precisos casi todas estas cifras se redondean.

1.3.3 El Teclado y sus Partes

El teclado nos permite comunicarnos con la computadora e ingresar la información. Es fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control.
Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar.
Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas cuya función cambia según el programa que estemos usando
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del PC/AT de esta compañía. Este diseño se ha mantenido como teclado estándar de la línea PS/2, y se ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la parte superior, en lugar de diez a la izquierda.



Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el movimiento del cursor y para edición entre la parte principal del teclado y el teclado numérico. Otras diferencias incluyen cambios en la posición de determinadas teclas, como Escape y Control, y modificaciones en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado extendido y su homónimo de Apple son similares en configuración y diseño.
• Las partes del teclado
El teclado alfanumérico Es similar al teclado de la máquina de escribir. tiene todas las teclas del alfabeto, los diez dígitos decimales y los signos de puntuación y de acentuación.
El teclado numérico Para que funciones el teclado numérico debe estar activada la función "Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se encenderá la lucecita con el indicador [Bloq Num] o [Num Lock].
Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y las operaciones matemáticas más comunes: suma, resta, multiplicación y división.
Las teclas de Función Estas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del programa que se esté usando en este momento.
Las teclas de Control Si estamos utilizando un procesador de texto, sirve para terminar un párrafo y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se usa para confirmar el dato que acabamos de ingresar y pasar al siguiente.
Estas teclas sirven para mover el cursor según la dirección que indica cada flecha.
Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres.
Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula.
Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto como números.
Esta tecla te permite insertar un carácter de manera que todo lo que escribamos a continuación se irá intercalando entre lo que ya tenemos escrito.
Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá automáticamente en mayúscula. para desactivarla basta con volverla a pulsar.
La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar distintas acciones según el programa que estemos usando.
En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor.
La tecla de control se usa en combinación con otras teclas para activar distintas opciones según el programa que se esté utilizando.
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.

ACTIVIDAD SOBRE LA UNIDAD
  • Conformar grupos de 4 o 5 personas como maximo para debatir y socializar la primera unidad y entregar al Instructor un resumen escrito con sus palabras de dicha unidad.
  • Plantear una pregunta por grupo para conformar un foro presencial en clase para socializar entre todos referente a la unidad.