jueves, 13 de diciembre de 2012
DISPOSITIVOS ANTIGUOS
La humanidad ha usado dispositivos de cómputo por milenios. Un ejemplo es el dispositivo para establecer la igualdad de peso: las clásicas balanzas. Una máquina más aritmética es el ábaco. Se piensa que la forma más antigua de este dispositivo —el ábaco de polvo— fue inventado en Babilonia. El ábaco egipcio del grano y del alambre datan del año 500 A.C.
En la antigüedad y en la edad media se construyeron algunos computadores analógicos para realizar cálculos de astronomía. Entre ellos estaba: el Mecanismo de Anticitera, un mecanismo de la antigua Grecia (aprox. 150-100 a. C.), el Planisferio; algunas de las invenciones de Al-Biruni (aprox. 1000 d. C.), el Ecuatorio de Azarquiel (alrededor de AD 1015), y otros computadores analógicos de astrónomos e ingenieros musulmanes.
Ordenadores personales
La historia de las computadoras personales comenzó en los años 1970. Una computadora personal está
orientada al uso individual y se diferencia de una computadora mainframe, donde las peticiones del usuario final son filtradas a
través del personal de operación o un sistema de tiempo compartido, en el cual un procesadorgrande es
compartido por muchos individuos. Después del desarrollo del microprocesador, las computadoras
personales llegaron a ser más económicos y se popularizaron. Las primeras
computadoras personales, generalmente llamados microcomputadoras, fueron vendidos a menudo como kit electrónicos y en
números limitados. Fueron de interés principalmente para aficionados y técnicos.
Sistemas
operativos
Un sistema operativo es
un conjunto de programas destinado a permitir el uso apropiado de las partes
físicas del ordenador (hardware).
Los sistemas operativos proveen un
conjunto de funciones necesarias y usadas por diversos programas de aplicaciones de una computadora, y los vínculos necesarios para controlar y
sincronizar el hardware de la misma. En las primeras computadoras, que no
tenían sistema operativo cada programa necesitaba la más detallada
especificación del hardware para ejecutarse correctamente
y desarrollar tareas estándares, y sus propios drivers para los dispositivos periféricos como impresoras y
lectores de tarjetas perforadas. El incremento de la complejidad del
hardware y los programas de aplicaciones eventualmente hicieron del sistema
operativo una necesidad.
Los primeros sistemas operativos fueron
desarrollados por cada usuario para adecuar el uso de su propia computadora central,1 y es en
1956 que la General Motors desarrolla
lo que es hoy considerado el primer sistema, el GM-NAA I/O,2 para su IBM 704.3
La década de 1940
A finales de la década de 1940, con lo
que se podría considerar la aparición de la primera generación
de computadoras, se accedía directamente a la consola de la
computadora desde la cual se actuaba sobre una serie de micro interruptores que
permitían introducir directamente el programa en la memoria de la computadora
(en realidad al existir tan pocas computadoras todos podrían considerarse
prototipos y cada constructor lo hacía sin seguir ningún criterio
predeterminado). Por aquel entonces no existían los sistemas operativos, y los programadores debían
interactuar con el hardware del computador sin ayuda externa. Esto
hacía que el tiempo de preparación para realizar una tarea fuera considerable.
Además para poder utilizar la computadora debía
hacerse por turnos. Para ello, en muchas instalaciones, se rellenaba un
formulario de reserva en el que se indicaba el tiempo que el programador
necesitaba para realizar su trabajo. En aquel entonces las computadoras eran
máquinas muy costosas lo que hacía que estuvieran muy solicitadas y que sólo
pudieran utilizarse en periodos breves de tiempo. Todo se hacía en lenguaje de
máquina.
A principios de los años 50 con el
objeto de facilitar la interacción entre persona y computadora, los sistemas
operativos hacen una aparición discreta y bastante simple, con conceptos tales
como el monitor residente, el proceso por lotes y el almacenamiento temporal.
Su funcionamiento era bastante simple, se
limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar
una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje
del siguiente.
Como solución para optimizar, en una
misma cinta o conjunto de tarjetas, se cargaban varios programas, de forma que
se ejecutaran uno a continuación de otro sin perder apenas tiempo en la
transición.
Su objetivo era disminuir el tiempo de
carga de los programas, haciendo simultánea la carga del programa o la salida
de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos
técnicas, el buffering y el spooling.
[editar]La década de
1960
En los años 60 se
produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la
mayoría orientados a seguir incrementando el potencial de los ordenadores. Para
ello se utilizaban técnicas de lo más diversas.
En un sistema multi programado la memoria principal alberga
a más de un programa de usuario. La CPU ejecuta instrucciones de un programa,
cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar
de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa.
Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes
oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible,
teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de
manera óptima los recursos disponibles.
Artículo principal: Tiempo compartido.
En este punto tenemos un sistema que hace
buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistemamultiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de
operación de tiempo compartido. En estos sistemas los programas de los
distintos usuarios residen en memoria. Al realizar una operación de E/S los
programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a
diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el
sistema operativo lo detiene para que se ejecute otra aplicación.
Estos sistemas se usan en entornos donde
se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en
su mayoría externos al ordenador. Si el sistema no respeta las restricciones de
tiempo en las que las operaciones deben entregar su resultado se dice que ha
fallado. El tiempo de respuesta a su vez debe servir para resolver el problema
o hecho planteado. El procesamiento de archivos se hace de una forma continua,
pues se procesa el archivo antes de que entre el siguiente, sus primeros usos
fueron y siguen siendo en telecomunicaciones.
Diseño que no se encuentran en
ordenadores monoprocesador. Estos problemas derivan del hecho de que dos
programas pueden ejecutarse simultáneamente y, potencialmente, pueden
interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y
escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas:
La arquitectura NUMA,
donde cada procesador tiene acceso y control exclusivo a una parte de la
memoria. La arquitectura SMP,
donde todos los procesadores comparten toda lamemoria. Esta última debe
lidiar con el problema de la coherencia de caché.
Cada microprocesador cuenta con su propia memoria cache local. De manera que
cuando un microprocesador escribe en una dirección de memoria, lo hace
únicamente sobre su copia local en caché. Si otro microprocesador tiene
almacenada la misma dirección de memoria en su caché, resultará que trabaja con
una copia obsoleta del dato almacenado.
Para que un multiprocesador opere
correctamente necesita un sistema operativo especialmente diseñado para ello.
La mayoría de los sistemas operativos actuales poseen esta capacidad.
Además del Atlas Supervisor y
el OS/360,
los años 1970 marcaron
el inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo
multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y Unix,
convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En
el campo de la programación lógica se dio a luz la primera implementación
de Prolog,
y en la revolucionaria orientación a objetos, Smalltalk.
Se trataba de sistemas grandes, complejos
y costosos, pues antes no se había construido nada similar y muchos de los
proyectos desarrollados terminaron con costos muy por encima del presupuesto y
mucho después de lo que se marcaba como fecha de finalización. Además, aunque
formaban una capa entre el hardware y el usuario, éste debía conocer un
complejo lenguaje de control para realizar sus trabajos. Otro de los
inconvenientes es el gran consumo de recursos que ocasionaban, debido a los
grandes espacios de memoria principal y secundaria ocupados, así como el tiempo
de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar
las técnicas ya existentes de multiprogramación y tiempo compartido.
·
MULTICS (Multiplexed
Information and Computing Service): Originalmente era un proyecto cooperativo
liderado por Fernando Corbató del MIT, con General Electric y los laboratorios
Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969
para comenzar a crear el sistema UNIX.
Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits;
después fue soportado por la serie de máquinas Honeywell 6180.
Fue uno de los primeros. Además, los
traducía a instrucciones de alto nivel destinadas a BDOS.
El hecho de que, años después, IBM
eligiera para sus PC a MS-DOS supuso su mayor fracaso, por lo que
acabó desapareciendo.
Con la creación de los circuitos LSI
-integración a gran escala-, chips que contenían miles de transistores en
un centímetro cuadrado de silicio, empezó el auge de los ordenadores
personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que
el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto
reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples
para los usuarios. En esta época, siguieron utilizándose lenguajes ya
existentes, como Smalltalk o C, y
nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación
a objetos, y Haskell y Miranda en el campo de la programación declarativa.
Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de
computadoras personales que corrían sistemas operativos en red y sistemas
operativos distribuidos. En esta escena, dos sistemas operativos eran los
mayoritarios: MS-DOS (Micro Soft Disk Operating System),
escrito por Microsoft paraIBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus
sucesores, y UNIX,
que dominaba en los ordenadores personales que hacían uso del Motorola 68000.
El lanzamiento oficial del ordenador Macintosh en enero de 1984,
al precio de US $1,995 (después cambiado a $2,495 dólares)[1]. Incluía su sistema operativo Mac OS cuya características novedosas era una
GUI (Graphic User Interface), Multitareas y Mouse.
Provocó diferentes reacciones entre los usuarios acostumbrados a la línea de comandos y algunos tachando el uso del Mouse como juguete.
En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas
modificaciones, se convirtió en la primera versión de MS-DOS (Micro Soft DiskOperating System). A partir de aquí se
sucedieron una serie de cambios hasta llegar a la versión 7.1, versión 8 en
Windows Milenium, a partir de la cual MS-DOS dejó de existir como un componente
del Sistema Operativo.
A mediados de los años 80 se crea este
sistema operativo, pero no es hasta la salida de (Windows 95) que se le puede
considerar un sistema operativo, solo era una interfaz gráfica del (MS-DOS) en
el cual se disponía de unos diskettes para correr los programas. Hoy en día es
el sistema operativo más difundido en el ámbito doméstico aunque también hay
versiones para servidores como Windows NT. (Microsoft) ha diseñado también
algunas versiones para superordenadores, pero sin mucho éxito. Años después se
hizo el (Windows 98) que era el más eficaz de esa época. Después se crearía el
sistema operativo de (Windows ME) (Windows Millenium Edition) aproximadamente
entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo
de (Windows 2000) en ese mismo año. Después le seguiría el sistema operativo
más utilizado en la actualidad, (Windows XP) y otros sistemas operativos de
esta familia especializados en las empresas. Ahora el más reciente es (Windows
7) (Windows Seven) que salió al mercado el 22 de octubre del 2009, dejando
atrás al (Windows Vista), que tuvo innumerables críticas durante el poco tiempo
que duró en el mercado.
[editar]La década de 1990
Este sistema al parecer es una versión
mejorada de Unix, basado en el estándar POSIX,
un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de
Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone
de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl o Compiz.
Lo que permite utilizar Linux de una forma visual atractiva.
Existen muchas distribuciones actuales de
Gnu/Linux (Debian, Fedora, Ubuntu, Slackware, etc.) donde todas ellas tienen en
común que ocupan el mismo núcleo Linux. Dentro de las cualidades de Gnu/Linux
se puede caracterizar el hecho de que la navegación a través de la web es sin
riegos de ser afectada por virus, esto debido al sistema de permisos
implementado, el cual no deja correr ninguna aplicación sin los permisos
necesarios, permisos que son otorgados por el usuario. A todo esto se suma que
los virus que vienen en dispositivos desmontables tampoco afectan al sistema,
debido al mismo sistema de permisos.
[editar]
ReactOS (React Operating System) es un sistema
operativo de código abierto destinado a lograr la compatibilidad binaria con
aplicaciones de software y controladores de dispositivos hechos para Microsoft
Windows NT versiones 5.x en adelante (Windows XP y sus sucesores).
En 1996 un grupo de programadores y
desarrolladores de software libre comenzaron un proyecto llamado FreeWin95 el
cual consistía en implementar un clon de Windows 95. El proyecto estuvo bajo discusión por el diseño
del sistema ya habiendo desarrollado la capa compatible con MS-DOS, pero
lamentablemente esta fue una situación que no se completó. Para 1997 el
proyecto no había lanzado ninguna versión, por lo que los miembros de éste,
coordinados por Jason Filby, pudieron revivirlo. Se decidió cambiar el núcleo
del sistema compatible con MS-DOS y de ahora en adelante basarlo en uno
compatible con Windows NT y así
el proyecto pudo seguir adelante con el nombre actual de ReactOS, que comenzó
en febrero de 1998, desarrollando las bases del kernel y algunos drivers
básicos.
EL
BUSCADOR,HISTORIA
Incluso antes de la World Wide Web, hubo
buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill
en 1990, seguido en 1991 porWAIS y Gopher. Los tres sistemas fueron
anteriores a la invención de la
World Wide Web pero todos continuaron indexando la Web y el resto de Internet
durante varios años después de que apareciera la Web. A 2006, aún hay
servidores Gopher, aunque hay muchos más servidores web.
A medida que la Web
creció, se crearon los buscadores y los directorios web para
localizar las páginas en la Web
y permitir a las personas encontrar cosas. El primer buscador web completamente
de texto fue WebCrawler en
1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro
de los primeros buscadores, Lycos,
fue creado en 1993 como un proyecto universitario, y fue el primero en
conseguir éxito comercial. Durantes los últimos años de 1990, tanto los
directorios web como los buscadores web eran populares—Yahoo! (fundado en 1995) y AltaVista (fundado en 1995) fueron los
respectivos líderes de la industria.
Por agosto de 2001, el modelo de directorios había comenzado a
ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había
desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de
directorios, aunque aún está disponible comúnmente, es menos utilizado que los
buscadores.
El tamaño de las bases de datos, que había sido sido una
característica de marketing significativa durante los primeros
años de la década de 2000, fue igualmente sustituido por el énfasis en el
ordenamiento por relevancia, los métodos con los cuales los buscadores intentan
colocar los mejores resultados primero. El ordenamiento por relevancia se
convirtió por primera vez en una cuestión importante alrededor de 1996,
cuando se hizo evidente que no era práctico revisar listas completas de
resultados. Por consiguiente, los algoritmospara
el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados
ha recibido la mayoría de la prensa, pero todos los principales buscadores
refinan continuamente sus metodologías de ordenamiento con el objetivo de
mejorar el orden de los resultados. En 2006,
la posición en los buscadores es más importante que nunca, tanto que la
industria ha desarrollado ("posicionadores en
buscadores") para ayudar a los desarrolladores web a mejorar su
posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor
de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags.
La venta de posiciones en buscadores por algunos buscadores ha creado también
controversia entre bibliotecarios y defensores de los consumidores.
La historia de Internet se remonta al temprano desarrollo de
las redes de comunicación. La
idea de una red de ordenadores diseñada para permitir la comunicación
general entre usuarios de varias computadoras sea
tanto desarrollos tecnológicos como la fusión de lainfraestructura de
la red ya existente y los sistemas de telecomunicaciones.
Las más antiguas versiones de estas ideas aparecieron a finales de
los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a
finales de los ochenta y a lo largo de los noventa. En la década de 1980,
tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron
a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web (WWW),
que se hizo común.
La infraestructura de Internet se esparció por el mundo, para
crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los
países occidentales e intentó una penetración en los países en desarrollo,
creando un acceso mundial a información y comunicación sin precedentes, pero
también una brecha digital en
el acceso a esta nueva infraestructura. Internet también alteró la economía del
mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se
basaba en el método de la computadora central o unidad principal, que
simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas.
Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania),
cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración
automática de teoremas einteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial,
según consta en su documento de enero, 1960, Man-Computer
Symbiosis (Simbiosis
Hombre-Computadora).
"una red de muchos [ordenadores],
conectados mediante líneas de comunicación de banda ancha" las cuales
proporcionan "las funciones que existen hoy en día de las bibliotecas
junto con anticipados avances en el guardado y adquisición de información y
[otras] funciones simbióticas"
J.C.R Licklider1
En octubre de 1962, Licklider fue nombrado jefe de la oficina de
procesado de información DARPA,
y empezó a formar un grupo informal dentro del DARPA del Departamento de
Defensa de los Estados Unidos para
investigaciones sobre ordenadores más avanzadas. Como parte del papel de la
oficina de procesado de información, se instalaron tres terminales de redes:
una para la System Development
Corporation en Santa Mónica, otra para el Proyecto Genie en la Universidad de
California (Berkeley) y
otra para el proyecto Multics en elInstituto
Tecnológico de Massachusetts. La necesidad de Licklider de redes se
haría evidente por los problemas que esto causó.
"Para cada una de estas tres
terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si
estaba hablando en red con alguien en la
S.D .C. y quería hablar con alguien que conocía en Berkeley o
en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C .D., pasar y registrarme en
la otra terminal para contactar con él.
Dije, es obvio lo que hay que hacer: si
tienes esas tres terminales, debería haber una terminal que fuese a donde sea
que quisieras ir y en donde tengas interactividad. Esa idea es el
ARPANet."
Robert W. Taylor,
co-escritor, junto con Licklider, de "The Computer as a Communications
Device" (El Ordenador como un Dispositivo de Comunicación), en una
entrevista con el New York Times2
Como principal problema en lo que se refiere a las interconexiones
está el conectar diferentes redes físicas para formar una sola red lógica.
Durante los años 60, varios grupos trabajaron en el concepto de la conmutación
de paquetes. Normalmente se considera que Donald Davies (National Physical
Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo
han inventado simultáneamente.3
La conmutación es
una técnica que nos
sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes:
los datos propiamente dichos y la información de control, en la que está
especificado la ruta a seguir a lo largo de la red hasta el destino del
paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la
longitud es mayor el mensaje se fragmenta en otros paquetes.
miércoles, 12 de diciembre de 2012
EL ORDENADOR
Una computadora o computador (del inglés computer y este del latín computare -calcular), también denominadaordenador (del francés ordinateur,
y este del latín ordinator),
es una máquina electrónica que recibe y procesa datos para convertirlos en información útil.
Una computadora es una colección de circuitos integrados y otros componentes relacionados que
puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario
o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas ysistematizadas en
función a una amplia gama de aplicaciones prácticas y precisamente
determinadas, proceso al cual se le ha denominado con el nombre de programación y
al que lo realiza se le llama programador. La computadora, además de la rutina
o programa informático,
necesita de datos específicos (a estos datos, en conjunto, se les conoce como
"Input" en inglés o de
entrada) que deben ser suministrados, y que son requeridos al momento de la
ejecución, para proporcionar el producto final del procesamiento de datos, que
recibe el nombre de "output" o de
salida. La información puede ser entonces utilizada, reinterpretada,
copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o
componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación,
que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de
almacenamiento.
La característica principal que la
distingue de otros dispositivos similares, como la calculadora no
programable, es que es una máquina de propósito general, es decir, puede
realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los
lenguajes de programación y el hardware.
Arquitectura
Artículo principal: Arquitectura de
computadoras.
A pesar de que las tecnologías empleadas
en las computadoras digitales han cambiado mucho desde que aparecieron los
primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de
von Neumann, publicada a principios de los años 1940 por John von Neumann, que otros autores atribuyen aJohn Presper Eckert y John William Mauchly.
La arquitectura de Von Neumann describe
una computadora con 4 secciones principales: la unidad aritmético
lógica (ALU por sus
siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central,
y los dispositivos de entrada y salida (E/S). Estas
partes están interconectadas por canales de conductores denominados buses:
·
La memoria es
una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La
instrucción es la información necesaria para realizar lo que se desea con el
computador. Las «celdas» contienen datos que se necesitan para llevar a cabo
las instrucciones, con el computador. El número de celdas varían mucho de
computador a computador, y las tecnologías empleadas para la memoria han
cambiado bastante; van desde los relés electromecánicos, tubos llenos de
mercurio en los que se formaban los pulsos acústicos, matrices de imanes
permanentes, transistores individuales a circuitos integrados con millones de
celdas en un solo chip. En general, la memoria puede ser reescrita varios
millones de veces (memoria RAM); se
parece más a una pizarra que a una lápida (memoria ROM)
que sólo puede ser escrita una vez.
·
El
procesador (también
llamado Unidad central de procesamiento o CPU) consta de manera básica de los
siguientes elementos:
Un
típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F
es la entrada de la unidad de control; D es un estado de la salida.
·
La unidad aritmético
lógica o ALU es
el dispositivo diseñado y construido para llevar a cabo las operaciones
elementales como las operaciones aritméticas (suma,
resta, ...), operaciones lógicas (Y,
O, NO), y operaciones de comparación o relacionales. En esta
unidad es en donde se hace todo el trabajo computacional.
·
La unidad de control sigue
la dirección de las posiciones en memoria que contienen la instrucción que el
computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe
desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la
memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente
instrucción (normalmente situada en la siguiente posición, a menos que la
instrucción sea una instrucción de salto, informando al ordenador de que la
próxima instrucción estará ubicada en otra posición de la memoria).
Los procesadores pueden
constar de además de las anteriormente citadas, de otras unidades adicionales
como la unidad
de Coma Flotante
·
Los dispositivos de Entrada/Salida sirven
a la computadora para obtener información del mundo exterior y/o comunicar los
resultados generados por el computador al exterior. Hay una gama muy extensa de
dispositivos E/S como teclados, monitores,
unidades de disco flexible o cámaras web.
Computadora de Escritorio.
Periféricos y dispositivos auxiliares
Artículo principal: Periférico.
Monitor
Artículo principal: Monitor de computadora.
El monitor o pantalla
de computadora, es un dispositivo de salida que, mediante una interfaz,
muestra los resultados, o los gráficos del procesamiento de una computadora.
Existen varios tipos de monitores: los de tubo de rayos
catódicos (o CRT), los de pantalla de plasma (PDP), los de pantalla de
cristal líquido (o LCD), de paneles dediodos
orgánicos de emisión de luz (OLED), o Láser-TV,
entre otros.
Teclado
Artículo principal: Teclado de computadora.
Un teclado de computadora es un periférico,
físico o virtual (por ejemplo teclados en pantalla o teclados táctiles),
utilizado para la introducción de órdenes y datos en una computadora. Tiene su
origen en los teletipos y
las máquinas de escribir
eléctricas, que se utilizaron como los teclados de los primeros
ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y
tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen
clasificar principalmente por la distribución de
teclado de su zona
alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos
y fabricantes (incluso para teclados árabes y japoneses).
Ratón
Artículo principal: Ratón.
El mouse (del inglés, pronunciado [ˈmaʊs]) o ratón es un periférico de
computadora de uso manual, utilizado como entrada o control de datos. Se
utiliza con una de las dos manos del usuario y detecta su movimiento
relativo en dos dimensiones por la superficie horizontal en la que
se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
Anteriormente, la información del desplazamiento era transmitida gracias al
movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que
correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos
debido a un rayo de luz que se refleja entre el ratón y la superficie en la que
se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo o sobre un
barnizado por ejemplo es inutilizable, ya que la luz láser no desempeña su
función correcta. La superficie a apoyar el ratón debe ser opaca, una
superficie que no genere un reflejo, es recomendable el uso de alfombrillas.
Impresora
Artículo principal: Impresora.
Una impresora es un periférico de
computadora que permite producir una copia permanente de textos o gráficos de
documentos almacenados en formato electrónico, imprimiendo en papel de lustre
los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos
de tinta o tecnologíaláser. Muchas impresoras son
usadas como periféricos, y están permanentemente unidas a la computadora por un
cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red
interna (típicamente wireless o Ethernet), y que puede servir como un
dispositivo para imprimir en papel algún documento para cualquier usuario de la
red. Hoy en día se comercializan impresoras multifuncionales que aparte de sus
funciones de impresora funcionan simultáneamente como fotocopiadora y escáner,
siendo éste tipo de impresoras las más recurrentes en el mercado.
Escáner
Artículo principal: Escáner de computadora.
En informática, un escáner (del idioma inglés: scanner)
es un periférico que
se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro
impreso a formato digital. Actualmente vienen unificadas con las impresoras
formando multifunciones
Impresora multifunción
Impresora multifuncional.
Artículo principal: Impresora multifunción.
Una impresora multifunción o dispositivo multifuncional es un
periférico que se conecta a la computadora y que posee las siguientes funciones
dentro de un único bloque físico: Impresora, escáner, fotocopiadora, ampliando o reduciendo el
original, fax (opcionalmente). Lector de memoria para la impresión directa de
fotografías de cámaras digitales Disco duro (las
unidades más grandes utilizadas en oficinas) para almacenar documentos e
imágenes En ocasiones, aunque el fax no esté incorporado, la impresora
multifunción es capaz de controlarlo si se le conecta a un puerto USB.
Almacenamiento
Secundario
Artículo principal: Disco duro.
Artículo principal: Unidad de Estado
Sólido.
El disco duro es
un sistema de grabación
magnética digital, es donde en la mayoría de los casos reside el Sistema operativo de la computadora. En los discos duros
se almacenan los datos del usuario. En él encontramos dentro de la carcasa una
serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos
se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos.
Una unidad de estado
sólido es un sistema
de memoria no volátil. Están formados por varios chips de memoria NAND Flash en su interior unidos a una
controladora que gestiona todos los datos que se transfieren. Tienen una gran
tendencia a suceder definitivamente a los discos duros mecánicos por su gran
velocidad y tenacidad. Al no estar formadas por discos en ninguna de sus
maneras, no se pueden categorizar como tal, aunque erróneamente se tienda a
ello.
Altavoces
Los altavoces se
utilizan para escuchar los sonidos emitidos por el computador, tales como
música, sonidos de errores, conferencias, etc.
·
Altavoces de las placas base: Las placas
base suelen llevar un dispositivo que emite pitidos para indicar posibles
errores o procesos, o para indicar acciones para las personas con
discapacidades visuales, como la activación del bloq num, bloq mayus.
Otros conceptos y curiosidades
En la actualidad se puede
tener la impresión de que los computadores están ejecutando varios programas al
mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo
término. En realidad, la CPU
ejecuta instrucciones de un programa y después tras un breve periodo de tiempo,
cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea
la ilusión de que se están ejecutando varios programas simultáneamente,
repartiendo el tiempo de la CPU
entre los programas. Esto es similar a la película que está formada por una
sucesión rápida de fotogramas. El sistema operativo es el programa que
generalmente controla el reparto del tiempo. El procesamiento simultáneo viene
con computadoras de más de un CPU, lo que da origen al multiprocesamiento.
El sistema operativo es una especie de caja de herramientas
lleno de utilerías que sirve para decidir, por ejemplo, qué programas se
ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El
sistema operativo tiene otras funciones que ofrecer a otros programas, como los
códigos que sirven a los programadores, escribir programas para una máquina sin
necesidad de conocer los detalles internos de todos los dispositivos
electrónicos conectados.
En la actualidad se están
empezando a incluir en las distribuciones donde se incluye el sistema
operativo, algunos programas muy usados, debido a que es ésta una manera
económica de distribuirlos. No es extraño que un sistema operativo incluya
navegadores de Internet, procesadores de texto,
programas de correo electrónico,
interfaces de red, reproductores de películas y otros programas que antes se
tenían que conseguir e instalar separadamente.
Los primeros computadores
digitales, de gran tamaño y coste, se utilizaban principalmente para hacer
cálculos científicos. ENIAC,
uno de los primeros computadores, calculaba densidades de neutrón transversales
para ver si explotaría la bomba de hidrógeno. El CSIR Mk I,
el primer ordenador australiano, evaluó patrones de precipitaciones para un
gran proyecto de generación hidroeléctrica. Los primeros visionarios
vaticinaron que la programación permitiría jugar al ajedrez, ver películas y
otros usos.
La gente que trabajaba para
los gobiernos y las grandes empresas también usó los computadores para
automatizar muchas de las tareas de recolección y procesamiento de datos, que
antes eran hechas por humanos; por ejemplo, mantener y actualizar la
contabilidad y los inventarios. En el mundo académico, los científicos de todos
los campos empezaron a utilizar los computadores para hacer sus propios
análisis. El descenso continuo de los precios de los computadores permitió su
uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los
gobiernos empezaron a emplear un gran número de pequeños computadores para
realizar tareas que antes eran hechas por computadores centrales grandes y
costosos. La reunión de varios pequeños computadores en un solo lugar se
llamaba torre de servidores[cita requerida].
Con la invención del microprocesador en 1970,
fue posible fabricar computadores muy baratos. Nacen los computadores
personales (PC), los que
se hicieron famosos para llevar a cabo diferentes tareas como guardar libros,
escribir e imprimir documentos, calcular probabilidades y otras tareas
matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de
computadores y su fácil adaptación a las necesidades de cada persona, han hecho
que se utilicen para varios propósitos.
Al mismo tiempo, los
pequeños computadores son casi siempre con una programación fija, empezaron a
hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la
maquinaria industrial. Estos procesadores integrados controlaban el
comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de
funciones de control más complejas como los sistemas de freno antibloqueo en
los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos,
casi todos los tipos de transporte eléctrico y la mayoría de las líneas de
producción de las fábricas funcionan con un computador. La mayoría de los
ingenieros piensa que esta tendencia va a continuar.
Actualmente, los computadores
personales son usados tanto para la investigación como para el entretenimiento
(videojuegos), pero los grandes computadores aún
sirven para cálculos matemáticos complejos y para otros usos de la ciencia,
tecnología, astronomía, medicina, etc.
Tal vez el más interesante
"descendiente" del cruce entre el concepto de la PC o computadora personal y los
llamados supercomputadores sea la Workstation o estación de trabajo. Este término,
originalmente utilizado para equipos y máquinas de registro, grabación y
tratamiento digital de sonido, y ahora utilizado precisamente en referencia a
estaciones de trabajo (traducido literalmente del inglés), se usa para dar
nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a
labores de cálculo científico, eficiencia contra reloj y accesibilidad del
usuario bajo programas y software profesional y especial, permiten desempeñar
trabajos de gran cantidad de cálculos y "fuerza" operativa. Una
Workstation es, en esencia, un equipo orientado a trabajos personales, con
capacidad elevada de cálculo y rendimiento superior a los equipos PC
convencionales, que aún tienen componentes de elevado coste, debido a su diseño
orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En
estos casos, el software es el fundamento del diseño del equipo, el que
reclama, junto con las exigencias del usuario, el diseño final de la
Workstation.[cita requerida]
Etimología de la palabra ordenador
PC con interfaz táctil.
La palabra española ordenador proviene del término francés ordinateur, en referencia a
Dios que pone orden en el mundo ("Dieu qui met de l'ordre dans le
monde").1 En
parte por cuestiones de marketing, puesto que la descripción realizada por IBM para su introducción en Francia en
1954 situaba las capacidades de actuación de la máquina cerca de la
omnipotencia, idea equivocada que perdura hoy en día al considerar que la
máquina universal de Turing es capaz de computar absolutamente todo.2 En
1984, académicos franceses reconocieron, en el debate "Les jeunes, la technique et
nous", que el uso de este sustantivo es incorrecto, porque la función
de un computador es procesar datos, no dar órdenes.3 Mientras
que otros, como el catedrático de filología latina Jacques Perret, conocedores
del origen religioso del término, lo consideran más correcto que las
alternativas.1
El uso de la palabra ordinateur se ha exportado a algunos idiomas de
la península Ibérica,
como el aragonés, el asturiano, el gallego, elcastellano, el catalán y
el euskera. El español que se habla en Iberoamérica así
como los demás idiomas europeos, como el portugués, el alemán y el holandés,
utilizan derivados del término computare.
Suscribirse a:
Entradas (Atom)