martes, octubre 13

República Bolivariana de Venezuela
Ministerio del Poder Popular Para la Defensa
Universidad Nacional Experimental Politécnica de la Fuerza Armada
UNEFA- Núcleo Yaracuy


Tecnologías de la información y comunicaciones




Alumna:
Marín L.; Luisa Teresa
C.I. 20.892.875
Sección 11 CIU


Introducción

Algunas veces se ha preguntado, ¿cuál fue uno de los primeros procesadores, siempre han sido a si de poderosos? O puede ser que alguna vez le haya surgido la duda de donde vienen las computadoras.

En éste trabajo se da un breve relato de la historia de las computadoras así también como las historias de los lenguajes de programación y de los microprocesadores, como una referencia rápida de los temas más comunes en el mundo de la informática y de las computadoras.
Una computadora, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil.

La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.


Historia, Evoluciones, Tendencias y Generaciones del Computador.

La computadora no es un invento de alguien en particular, sino el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.

Siglo XVII

El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema que se plantea.

1617
El matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos.

1623
La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacia rodar cilindros en un albergue grande.

1624
La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica.

1642
Blaise Pascal inventa la Pascalina. Con ésta máquina, los datos se representaban mediante las posiciones de los engranajes.

1666
La primera máquina de multiplicar se inventó por Sir Samuel Morland. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc.

Siglo XVIII

1769
El Jugador de Ajedrez Autómata, "El Turco", fue inventado por Barón Wolfgang von Kempelen, un noble húngaro. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí, era una sensación dondequiera que iba pero se destruyó en un incendio en 1856.

1777
Se inventó la primera máquina lógica por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.

Siglo XIX

1801
El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.

1822
Charles Babbage diseñó su "Artefacto Analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas".

1843
Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.

1854
. El sistema de George Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. Boole es considerado por muchos como el padre de la teoría de la informática.

1869
La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.
1878
Ramon Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar.

1879
Herman Hollerith desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros.

1884
Dorr Felt desarrolló su Comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.

Siglo XX

1906
El primer tubo de vacío fue inventado por el estadounidense, Lee De Forest. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de computadoras, a comienzos de 1930.

1919
El primer circuito multivibrador o biestable (en léxico electrónico flip-flop) fue desarrollado por los inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.

1930
Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.

1931
Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Sus resultados son fundamentales en las ciencias teóricas de la computación.

1936
Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo

1941
La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.

1942
John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").

1944
Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.

1946
Se construye en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primer computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200KW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo.

1947
Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley.

1949
Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.

1950
Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.

1951
Comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado.
El Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.

1952
Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.

1953
IBM fabricó su primer computadora escala industrial, la IBM 650
Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.
Se crean memorias a base de magnetismo (conocidas como memorias de núcleos).

1954
Se desarrolla el lenguaje de programación de alto nivel FORTRAN.

1956
Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.

1958
Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
El primer circuito integrado se construyó por Jack S. Kilby.

1960
Se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
Aparece Algol, el primer lenguaje de programación estructurado y orientado a los procedimientos.
Se crea el primer compilador de compilador.
C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.

1961
Kenneth Iverson inventa el lenguaje de programación APL en IBM.
Aparece el concepto de paginación de memoria, descrito por T. Kilburn y D. J. Howart.

1962
Los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT.
El primer compilador autocontenido, es decir, capaz de compilar su propio código fuente fue el creado para Lisp por Hart y Levin en el MIT.
Un equipo de la Universidad de Manchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año

1963
Un comité Industria-Gobierno define el código estándar de caracteres ASCII.
El primer minicomputador comercialmente exitoso es distribuido por DEC (Digital Equipment Corporation)

1964
La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
Aparece el CDC 6600, la primera supercomputadora comercialmente disponible.
Se desarrolla el lenguaje BASIC, John George Kemeny y Thomas Eugene Kurtz en el Dartmouth College

1965
Gordon Moore publica la famosa Ley de Moore.
La lógica difusa, diseñada por Lofti Zadeh, se usó para procesar datos aproximados.
J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
Los algoritmos de exclusión mutua (sistemas operativos) fueron tratados por primera vez en los clásicos documentos de Dijkstra.

1966
La mayoría de ideas y conceptos que existían sobre redes fueron aplicadas a ARPANET.
Aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.

1967
Es inventado el diskette (disco flexible) en IBM por David Noble, bajo la dirección de Alan Shugart.

1969
Se desarrolla en los laboratorios Bell el lenguaje de programación B cuyos aportes fueron mayoritariamente de Ken Thompson y Dennis Ritchie.
Nace el sistema operativo UNICS en los laboratorios Bell de AT&T por un grupo de empleados de dicho laboratorio, entre los que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy.

1970
El primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc.
Se publica el primer modelo de base de datos relacional, por E.F. Codd.
El profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.
Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1Kbits).

1971
Se presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
Ray Tomlinson crea el primer programa para enviar correo electrónico, como consecuencia, la arroba se usa por primera vez con fines informáticos.
Un grupo de investigadores del MIT presentaron la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).

1972
Aparecen los disquetes de 5 1/4 pulgadas.
Se reconoce el primer virus informático, creado por Robert Thomas Morris. Atacó a una máquina IBM Serie 360 y fue llamado Creeper.
Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C en los Laboratorios Bell.
Intel desarrolla y pone a la venta el procesador 8008.

1974
Es creado el protocolo TCP por Vint Cerf y Robert Kahn.
Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN).
Gary Kildall crea el sistema operativo CP/M, en base al cual se desarrolla posteriormente, de manera polémica, MS-DOS, suponiendo una violación a los derechos de autor (copyright) del CP/M.

1975
En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.

1978
Se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).

1979
Dan Bricklin crea la primera hoja de cálculo, más tarde sería denominada VisiCalc.

1980
Surge el primer prototipo de Computadora de Instrucción Reducida (RISC), desarrollado por un grupo de investigación en IBM.
La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.
Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell, llamado Bellmac-32.

1981
Se termina de definir el protocolo TCP/IP.
Apple presenta el primer computador personal que se vende a gran escala, el apple II.
Sony crea los disquetes de 3 1/2 pulgadas.

1982
La Asociación Internacional MIDI publica el MIDI.

1983
Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.
Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM compatible, el Compaq portable.
ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup.
Nace el primer sistema operativo de Sun llamado SunOS.
Aparece el famoso Lotus 1-2-3, un programa de hoja de cálculo realizado por la compañía Lotus Software.
El sistema DNS consistía de 1000 hosts.

1984
IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático.
Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.
Las compañías Philips y Sony crean los CD-Roms para computadores.
Se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.
Aparece el lenguaje LaTeX para procesamiento de documentos.

1985
Microsoft presenta el sistema operativo Windows 1.0.
Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
Bertrand Meyer crea el lenguaje de programación Eiffel.
Adobe crea el PostScript.

1986
ISO estandariza SGML, lenguaje en que posteriormente se basaría XML.
Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
El lenguaje SQL es estandarizado por ANSI.
Se registra la primera patente base de codificación de lo que hoy conocemos como MP3.
Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido.

1987
Se desarrolla la primera versión del actual protocolo X11.
Larry Wall crea el lenguaje de programación Perl.
Compaq introdujo la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III.

1988
Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.
Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica.
Aparece el primer documento que describe lo que hoy se conoce como firewalls.
Aparece el estándar XMS.

1989
Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.

1990
Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
Se construye el primer prototipo de procesador óptico en AT&T (Laboratorios de Bell).
Guido van Rossum crea el lenguaje de programación Python.

1991
Linus Torvalds decidió escribir su propio núcleo de sistema operativo compatible con Unix, y lo llamó Linux.
Aparece la primera versión de Adobe Premiere.
Compaq puso a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los 90's en vender una PC de menos de $1,000. Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.

1992
Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo.
Microsoft lanza Windows 3.1.
Aparece la primera versión del sistema operativo Solaris.

1993
Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT.
Se crea la lista TOP500 que recopila los 500 ordenadores más poderosos de la tierra.

1994
Marc Andreessen crea el famoso navegador web Netscape Navigator.
Es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.

1995
Lanzamiento de Windows 95 por parte de Microsoft.
Aparece la primera versión de MySQL.
La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems.
Se presenta públicamente el lenguaje de programación Ruby.
Se especifica la versión 1.5 del DVD, base actual del DVD.

1996
Se crea Internet2, más veloz que la Internet original.
Se publica la primera versión del navegador web Opera.
La tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T.
Aparece la primera versión de SuperCollider.
Sabeer Bhatia y Jack Smith fundan HotMail.

1997
Es creado reproductor multimedia Winamp, cuya distribución es realizada gratuitamente por la empresa estadounidense Nullsoft.
Aparece la primera versión pública de FlightGear.
Spencer Kimball y Peter Mattis crean la inicial librería GTK+.

1998
La W3C publica la primer versión de XML.
Es lanzado al mercado el sistema Windows 98 por parte de Microsoft.

1999
Aparece el entorno de escritorio GNOME.
Se publica la primera versión de MSN Messenger.
Surge Mac OS 9.

Siglo XXI

2000
Es presentado el prototipo de computador cuántico construido por un equipo de investigadores de IBM.
Es lanzado el sistema operativo Windows 2000 por Microsoft.
Es lanzado el sistema operativo Windows Me por Microsoft.
Lanzamiento de Mac OS X.

2001
Microsoft desarrolla como parte de su plataforma .NET el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.
Lanzamiento del sistema operativo Windows XP por Microsoft.

2002
Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.
Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500.
2006
Lanzamiento de Windows Vista
Entra en servicio el supercomputador Magerit perteneciente al CeSViMa.

2007
La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.
La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5

2008
Apple lanza al mercado la MacBook Air la cual al parecer es la laptop más delgada del mundo.
Apple lanza el móvil más revolucionario de la historia el iPhone 3G en toda Europa y América
Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para moviles
Lanzamiento del navegador Google Chrome
Lanzamiento de KDE 4.0.
El supercomputador Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista TOP500.

El Computador.

El computador es un conjunto de circuitos electrónicos comprimidos en una pastilla de silicio (llamada Chip), siendo su función fundamental la de encausar las señales electromagnéticas de un dispositivo a otro.

• Monitor: El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora. Hay diferentes tipos de monitores, los clásicos de tubo de rayos catódicos (o CRT) y los de pantalla plana, los de pantalla de cristal líquido (o LCD)

• Teclado: es un periférico, físico o virtual, utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas).

• Ratón: El mouse (del inglés) o ratón es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.

• Impresora: es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos

• Escáner: En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital.

Estructura Interna.

El microprocesador, que también lo llamamos procesador o cpu (unidad central de procesamiento), constituye el cerebro de una computadora. Este se encarga de tomar la información que recibe de diferentes fuentes, efectúa lo procesos necesarios a dicha información y envía l resultado al destino que se le indico. A ese modelo se lo conoce con las siglas EPS (entrada de información; procesamiento; salida).

El microprocesador se puede dividir en varios bloques, de los cuales vamos a tomar los dos más importantes para analizar el funcionamiento básico:

• La CU o UC (unidad de control): se encarga de recibir las instrucciones provenientes de la memoria a través del bus de datos, decodifica cada instrucción y la ejecuta, enviando datos a cualquier dispositivo que la instrucción indique o realizando diferentes tipos de procesos con los datos que llegan a la memoria a través de el bus de datos. Si no se le indica lo contrario mediante una instrucción de bifurcación, el procesador ejecutara las instrucciones a medida que van llegando.

La ALU o UAL (unidad aritmética lógica): es una parte del procesador que se encarga de realizar las operaciones lógicas y aritméticas con los datos recibidos. Si la instrucción indica que se realicen algunas operaciones la ALU tomara los datos y depositara los resultados de la operación efectuada en un registro.

• Buses: el bus es un sistema digital que transfiere datos entre los componentes de un computador o entre computadores. Están formado por cables o pistas en un circuito impreso, dispositivos como resistencias y condensadores además de circuitos integrados.
o Bus paralelo: Es un bus en el cual los datos son enviados por bytes al mismo tiempo, con la ayuda de varias líneas que tienen funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y es igual al ancho de los datos por la frecuencia de funcionamiento. En los computadores ha sido usado de manera intensiva, desde el bus del procesador, los buses de discos duros, tarjetas de expansión y de vídeo, hasta las impresoras.

o El bus de dirección es un canal del microprocesador totalmente independiente al bus de datos donde se establece la dirección de memoria del dato en tránsito. El bus de dirección consiste en el conjunto de líneas eléctricas necesarias para establecer una dirección.La capacidad de la memoria que se puede direccionar depende de la cantidad de bits que conforman el bus de direcciones, siendo 2^n (dos elevado a la ene) el tamaño máximo en bytes del banco de memoria que se podrá direccionar con n líneas. Por ejemplo, para direccionar una memoria de 256 bytes, son necesarias al menos 8 líneas, pues 2^8 = 256. Adicionalmente pueden ser necesarias líneas de control para señalar cuando la dirección está disponible en el bus. Esto depende del diseño del propio bus.

o Bus serie: En este los datos son enviados, bit a bit y se reconstruyen por medio de registros o rutinas de software. Está formado por pocos conductores y su ancho de banda depende de la frecuencia. Es usado desde hace menos de 10 años en buses para discos duros, tarjetas de expansión y para el bus del procesador.

• El computador dispone de varios dispositivos de memorización:

o Disco duro: está conformado por un aparato independiente, que contiene un conjunto de placas de plástico magnetizado apto para registrar la "grabación" de los datos que constituyen los "archivos" y sistemas de programas. Ese conjunto de discos gira a gran velocidad impulsado por un motor, y es recorrido también en forma muy veloz por un conjunto de brazos que "leen" sus registros. También contiene un circuito electrónico propio, que recepciona y graba, como también lee y dirige hacia otros componentes del computador la información registrada.

o La memoria ROM: Acrónimo, Read Only Memory, es una clase de medio de almacenamiento utilizado en los ordenadores y otros dispositivos electrónicos. Los datos almacenados en la ROM no se puede modificar -al menos no de manera rápida o fácil- y se utiliza principalmente para contener el firmware (software que está estrechamente ligada a hardware específico, y es poco probable que requieren actualizaciones frecuentes).

o La memoria RAM: Acrónimo de Random Access Memory, (Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente. Se llama de acceso aleatorio porque el procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior. Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos cuando el ordenador se apaga.

Tipos de memorias RAM
 DRAM
 FPM
 EDO o EDO-RAM
 SDRAM: Sincronic-RAM
 SDRAM
 PC-100 DRAM
 BEDO
 RDRAM
 DDR SDRAM
 SLDRAM
 ESDRAM
 MDRAM
 SGRAM
 VRAM
 WRAM

o Las memorias externas. Un aspecto importante de la memorización es la capacidad de hacer ese registro en medios permanentes, básicamente los llamados "archivos" grabados en disco.

o El acumulador: es un registro en el que son almacenados temporalmente los resultados aritméticos y lógicos intermedios que serán tratados por la Unidad aritmético-lógica (ALU).
Unidades de Memoria

 BIT: puede tener valore de 0 y 1, es decir sistema binario
 BYTE: son 8 Bits.
 KILOBYTE (KB) = 2 **10 bytes
 MEGABYTE (MB) = 2 ** 10 Kilobyte = 2 ** 20 Bytes
 GIGABYTE (GB) = 2** 10 Megabyte = 2** 30 Bytes
 TERABYTE (TB) =2**10 Gigabyte = 2**40 Bytes

Memoria caché: Pensemos en la siguiente situación: como ser humano, necesito alimentarme para subsistir, ahora, para alimentarse voy al supermercado a hacer las compras. Si cada vez que tengo hambre tengo que ir al supermercado, paso mucho tiempo viajando hacia este, sin embargo, si mensualmente hago las compras generales y guardo todo en mi casa y solamente voy a buscar algo al supermercado cuando no lo tengo, voy a aprovechar mucho mas el tiempo.
La situación anterior es la misma que vive el procesador cada vez que accede a la memoria y es el principió del funcionamiento de la memoria caché-

o Puertos de entradas y salidas: son el medio para que el computador se comunique con el mundo exterior. Los puertos se clasifican según el procesamiento que se utiliza para transmitir los datos:

 puertos paralelos: son capaces de transmitir varios bits al mismo tiempo, a través de varios conductores, uno para cada bits, conectado en paralelo (de ahí su nombre).
 puertos en serie: transmiten un bits detrás de otro a través de un solo conductor es decir en serie.

SOTWARE

Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación.
La palabra software se refiere al equipamiento lógico o soporte lógico de una computadora digital, y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware).
Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos, que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interfaz para el usuario.

Clasificación del software

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:
• Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles de la computadora en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:

o Sistemas operativos
o Controladores de dispositivos
o Herramientas de diagnóstico
o Herramientas de Corrección y Optimización
o Servidores
o Utilidades

• Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros:

o Editores de texto
o Compiladores
o Intérpretes
o Enlazadores
o Depuradores

o Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

• Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:

o Aplicaciones para Control de sistemas y automatización industrial
o Aplicaciones ofimáticas
o Software educativo
o Software empresarial
o Bases de datos
o Telecomunicaciones (p.ej. internet y toda su estructura lógica)
o Videojuegos
o Software médico
o Software de Cálculo Numérico y simbólico.
o Software de Diseño Asistido (CAD)
o Software de Control Numérico (CAM)

Hardware.

El hardware corresponde a todas las partes físicas y tangibles de una computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente al soporte lógico e intangible que es llamado software.
La historia del hardware del computador se puede clasificar en tres generaciones, cada una caracterizada por un cambio tecnológico de importancia.
Un sistema informático se compone de una CPU, encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos.

Conclusión.

El computador ha sido un invento que ha venido a revolucionar tecnológicamente, facilitando las resoluciones de las tareas de la vida cotidiana
Actualmente su evolución es continua, debido a que existen empresas en el campo de la tecnología que se encargan de presentarnos nuevas propuestas en un corto tiempo.
El ordenador con la información que se le suministre puede utilizarla, reinterpretarla, copiarla, transferirla, o retransmitirla a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.


Bibliografía.
• Internet:

o www.gratisweb.com
o es.wikipedia.org
o www.monografias.com

1 comentario: