viernes, 27 de abril de 2012

SISTEMAS OPERATIVOS Y BASE DE DATOS

SISTEMA OPERATIVO

Un sistema operativo es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, y se ejecuta en modo privilegiado respecto de los restantes.
Es un error común, denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel.

BASE DE DATOS

Una base de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e ingresados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos.
Existen programas denominados sistemas gestores de bases de datos o mejor dicho SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas. También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran protegidos por las leyes de varios países.

miércoles, 25 de abril de 2012

HARDWARE Y SOFTWARE Y SU DIFERENCIA

La diferencia del hardware y del software es que el hardware simplemente es lo que le vemos al computador sea portatil o de mesa En cambio, el software viene a ser todos y cada uno de los elementos que a pesar de que los podemos ver funcionar en el equipo, no los podemos tocar . Es así que el software viene a ser el sistema operativo y cada una de las aplicaciones que hemos instalado en el computador para ser usado a nuestro beneficio.

HARDWARE
 
SOFTWARE
                

DISCO DURO:DEFINICION,ESTRUCTURA FISICA Y LOGICA,CARACTERISTICAS Y NUEVA GENERACION

DEFINICION

Un disco duro (del inglés hard disk (HD)es un disco magnético en el que puedes almacenar datos de ordenador. El disco duro es la parte de tu ordenador que contiene la información electrónica y donde se almacenan todos los programas (software). Es uno de los componentes del hardware más importantes dentro de tu PC.
El término duro se utiliza para diferenciarlo del disco flexible o disquete (floppy en inglés). Los discos duros pueden almacenar muchos más datos y son más rápidos que los disquetes. Por ejemplo, un disco duro puede llegar a almacenar más de 100 gigabytes, mientras que la mayoría de los disquetes tienen una memoria máxima de 1.4 megabytes.
 

ESTRUCTURA FISICA

Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..
Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).

ESTRUCTURA LOGICA


La estructura lógica de un disco duro esta formado por:
Sector de arranque.
Espacio particionado.
Espacio sin particionar.
Espacio particionado: Es el espacio del disco que ha sido asignado a alguna partición.
Espacio sin particionar: Es el espacio del disco que no ha sido asignado a ninguna partición.
Sector de arranque: Es el primer sector de un disco duro en él se almacena la tabla de particiones y un programa pequeño llamado Master Boot. Este programa se encarga de leer la tabla de particiones y ceder el control al sector de arranque de la partición activa, en caso de que no existiese partición activa mostraría un mensaje de error.
A su vez la estructura lógica de los discos duros internamente se pueden dividir en varios volúmenes homogéneos dentro de cada volumen se encuentran una estructura que bajo el sistema operativo MS-DOS es el siguiente:
Cada zona del volumen acoge estructuras de datos del sistema de archivos y también los diferentes archivos y subdirectorios. No es posible decir el tamaño de las diferentes estructuras ya que se adaptan al tamaño del volumen correspondiente.
A continuación vamos a definir cada una de las estructuras mostrada en el cuadro.

Sector de arranque (BOOT): En el sector de arranque se encuentra la información hacerca de la estructura de volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. Al formatear un volumen el BOOT se crea siempre como primer sector del volumen para que sea fácil su localización por el DOS.

Tabla de asignación de ficheros (FAT): La FAT se encarga de informar al DOS que sectores del volumen quedan libres, esto es por si el DOS quiere crear nuevos archivos o ampliar archivos que ya existen. Cada entrada a la tabla se corresponde con un número determinado de sectores que son adyacentes lógicamente en el volumen.
Uno o más copias de la FAT: El DOS permite a los programas que hacen el formateo crear una o varias copias idénticas de la FAT, esto va a ofrecer la ventaja de que se pueda sustituir la FAT primaria en caso de que una de sus copias este defectuosa y así poder evitar la perdida de datos.

Directorio Raíz: El directorio raíz representa una estructura de datos estática, es decir, no crece aún si se guardan más archivos o subdirectorios. El tamaño del directorio raíz esta en relación al volumen, es por eso que la cantidad máxima de entradas se limita por el tamaño del directorio raíz que se fija en el sector de arranque.
Zona de datos para archivos y subdirectorios: Es la parte del disco duro donde se almacenan los datos de un archivo. Esta zona depende casi en su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.
CARACTERÍSTICAS
Los fabricantes de discos duros miden la velocidad en términos de tiempo de búsqueda, tiempo de acceso, latencia y tasa de transferencia de datos:
1.-Capacidad de almacenamiento: Se refiere a la cantidad de información que se pueda almacenar o grabar en un disco duro. Su medida en la actualidad en GB aunque también en TB.
2.-Velocidad de rotación: Es la velocidad a la que giran los platos del disco cuya regla es que a mayor velocidad de rotación mayor será la transferencia de datos, pero a su vez será mayor ruido y también mayor calor generado por el disco. La velocidad de rotación se mide en revoluciones por minuto (RPM).
3.-Tiempo de acceso: Es el tiempo medio necesario que tarda la cabeza del disco en acceder a los datos. Es la suma de varias velocidades:
El tiempo que tarda el disco en cambiar de una cabeza a otra cuando busca datos.
El tiempo que tarda la cabeza lectora en buscar la pista con los datos saltando de una en otra.
El tiempo que tarda la cabeza en buscar el sector correcto en la pista.
Por lo tanto el tiempo de acceso es la combinación de tres factores.
3.1.-Tiempo de búsqueda: Es el intervalo tiempo que el toma a las cabezas de lectura/escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda varía en cada búsqueda.Un tiempo de búsqueda bajo es algo muy importante para un buen rendimiento del disco duro
3.2.-Latencia: Cada pista de un disco duro contiene múltiples sectores, una vez que la cabeza de lectura/escritura encuentra la pista correcta las cabezas permanece en el lugar inactivas hasta que el sector pasa por debajo de ellas, este tiempo de espera se llama latencia. La latencia promedio es el tiempo para que el disco una vez que esta en la pista correcta encuentre el sector deseado, es decir, es el tiempo que tarda el disco en dar media vuelta.
3.3.-Command Overhead: Es el tiempo que le toma a la controladora procesar un requerimiento de datos.
4.-Tasa de transferencia de datos: Esta medida indica la cantidad de datos que un disco puede leer o escribir en la parte más exterior del disco en un periodo de un segundo
5.-Memoria Caché: Es una memoria que va incluida en la controladora del disco duro, de modo que todos los datos que se leen y escriben en el disco duro se almacenan primeramente en esta memoria.
NUEVA GENERACION
 Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía.









EVOLUCION DE LOS MICROPROCESADORES INTEL

TESTIMONIO DE LA EVOLUCION QUE A LLEVADO INTEL CON SUS MICROPROCESADORES
voy a empezar desde el procesador Intel 8086, solo lo vi en foto y mencionado por mis profesores de informática, este tenía la sorprendente velocidad de 4.77Mhz, si tal como escribí; y aquí mi aclaración, hoy en día hablamos de 2.4GHZ o 3.0GHZ y un poco más; que vienen a ser 2400Mhz y 3000Mhz respectivamente comparados con los 4.77Mhz, déjenme decirles que para la época este procesador era un correcaminos, salió en 1979 yo nací en el 78.
Luego conocí el INTEL 80286 de la mano del papa de un amigo mío de la infancia Milton Ordoñez, debo decir que su papa había adquirido algunas computadoras con este procesador; ese procesador salió al mercado en 1982 yo tenía solo 4 años; para cuando lo probé ya estaba en el colegio este oscilaba entre los 6 a 8Mhz, que al paso del tiempo me entere llegaron a los 25Mhz.
Luego por noticias de mi época de colegio escuche del mayor avance hasta el momento en el desarrollo de los procesadores, del nuevo Intel 80386, lo vi en fotos del año 1986 cuando salió al mercado, yo tenía 8 años y en esa época aún no me atraía el mundo informático.
Todo comienza cuando me compran mi primer computador PC, un PS/1 de IBM que venía con el procesador Intel 80486SX a 33Mhz con 4Mb RAM, hoy en día hablamos de 4GB RAM ósea 4000Mb aproximadamente, este salió en el año de 1989, yo tenía 11 años, pero este PC me lo compraron en el año 1993 cuando tenía 15 años, este equipo era un todoterreno para la época, y sí; hay que decirlo, Ecuador siempre andaba desfasado con la tecnología que nos llegaba.
Con este PC, hice de todo, desde portar mis primeros juegos del ATARI130XE (1.79Mhz de 128Kb de RAM) al Basic y Qbasic de Microsoft luego pase por COBOL, FOX 2.5 y 2.6 en el colegio; luego aprendí lenguaje C, Pascal, Windows 3.11 y 95, RMCOBOL, RPG y lenguaje ensamblador en la Universidad, usando esta misma computadora, por eso dije un todoterreno y una buena inversión por parte de mi mama.
Recuerdo que a mi amigo Milton le compraron después un PC Clon que venía con un procesador Intel 80486DX2 de 66 Mhz, es decir el doble de rápida que la mía, y en esa época de juventud probamos un montón de juegos en nuestros computadores para probar la velocidad, como Prince of Persia 1, Jazz Jack Rabbit, WOLFENSTEIN 3D, DOOM, DOOM2, DUKE NUKEM,DESCENT 1 y 2, QUAKE 1 y 2 y Megarace 1 de la mano de otro amigo llamado Álvaro que le compraron una pc con el mismo procesador de Milton, anecdótico era que el famoso Doom fue hecho para correr mínimo en mi computadora, un aplauso para los programadores de ID Software.
Luego a un amigo del colegio llamado Wellington le compraron su computador, oh sorpresa! venía con un procesador Intel 80486DX4 de 100Mhz, yo no lo podía creer semejante velocidad, aquí hicimos un sistema de control de tarjeta de crédito en Fox 2.6 para el Vicente Rocafuerte que hablaba y fue nuestra tesis de graduación, aun me acuerdo cuando nos exoneraron de los exámenes de grado.
Con este procesador pudimos ejecutar juegos de la talla de Mortal Kombat 1,2 y 3 para una exposición de la tarjeta Sound Blaster 16 en el colegio, para esa época con Milton comenzamos a probar el cambio de procesador a nuestros PC, basados en el sistema OverDrive de Intel, así que yo migre de mi 486SX a un 486DX2 de 66Mhz y aumente la RAM a 16Mb, Milton se pasó a un procesador de la empresa AMD de 133Mhz, con ese era al amo y señor de la velocidad.
En cuanto a las versiones de los 80486, puedo destacar el Intel 80486-DX – La versión modelo, con las características indicadas anteriormente, Intel 80486-SX – Un i486DX con la unidad de coma flotante deshabilitada, para reducir su coste, Intel 80486-DX2 – Un i486DX que internamente funciona al doble de la velocidad del reloj externo, Intel 80486-DX4 – Un i486DX2 pero triplicando la velocidad interna y el Intel 80486 OverDrive (486SX, 486SX2, 486DX2 o 486DX4) – variantes de los modelos anteriores, diseñados como procesadores de actualización; de los que recuerdo en esta gama de 486, sus velocidades eran desde 25Mhz hasta los 100Mhz, para mi fue muy importante este epoca del 486 porque lo exprimí al máximo con mi PS/1 de IBM.
Luego salió el Procesador Pentium en el año 1993 como versión del 586 que esperábamos, Intel cambio su nomenclatura por problemas con la competencia que era AMD, recuerdo que Milton migro a un Pentium de 75Mhz, y luego a otro de 166Mhz y a otro de 200Mhz, yo tuve que cambiar mi PS/1 por otra PC CLON que me arme, y pude comprar un procesador Pentium MMX de 233Mhz.
Para 1995 salieron los Pentium Pro, y en 1997 los Pentium II, a este último lo vi por medio de otro amigo llamado Xavier que se lo compro; era de 300Mhz, lo raro de este es que era un cartucho negro, totalmente diferente a lo visto anteriormente, eran bastantes caros, por eso en 1998 Intel saco los Intel Celeron y Celeron II, como una gama de procesadores económicos, estos Pentium llagaron hasta los 450Mhz
Para 1999 sale al mercado Intel Pentium III con velocidades en principio de 450Mhz y 500Mhz; para mayo llegaron los de 550Mhz y 600Mhz, yo de estos procesadores no participe, solo me enteraba por las noticias informáticas y revistas como PCWorld, para finales del año Intel saco una versión llamada Coppermine con velocidades de 500Mhz, 533Mhz, 550Mhz, 600Mhz, 650Mhz, 667Mhz, 700Mhz y 733Mhz. En el año 2.000 salieron las versiones de 750Mhz, 800Mhz, 850Mhz, 866Mhz, 933Mhz y 1Ghz si recién en este año hablamos de 1Ghz, entre 1999 y el año 2000; fueron 2 años donde muchos nos quedamos estupefactos con el crecimiento de velocidad tan rápido y vertiginoso.
Para inicio del año 2001, se trata de la última serie de Pentium III, con unas velocidades de 1.13Ghz, 1.2Ghz, 1.26Ghz y 1.4Ghz, hasta aquí puedo citar que yo actualice mi PC CLON con todo y tarjeta madre con procesador AMD Duron de 800Mhz, y lo hice porque los procesadores de Intel eran muy caros, para luego pasarme a un AMD Athlon de 1.6Ghz+; con este último sobreviví por algún tiempo.
En noviembre del año 2000 Intel saca al mercado el procesador Intel Pentium 4 escrito Pentium IV, que estuvieron durante unos años compartiendo mercado con los Pentium III y AMD Athlon y Athlon XP; un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, trabajaba a 1.4 y 1.5 GHz donde se había quedado el Pentium III, posterirmente salieron los de 3.8Ghz llamados Prescott; que es lo más rápido que ha salido en un procesador comercial .
Luego en el 2003 vino en el Procesador Pentium M, este fue originalmente diseñado para su uso en computadoras portátiles venían desde los 1.5Ghz hasta los 1.7Ghz; con el vino mi primera Portátil y era de 1.7Ghz en la marca Xtratech con 512Mb luego la actualice a 1Gb de Ram, luego vino una segunda generación desde los 1.6Ghz hasta los 2.26Ghz.
Para 2005 vinieron los Pentium D que consisten básicamente en dos procesadores Pentium 4 ubicados en una única pieza de silicio, con velocidades desde los 2.66Ghz hasta 3.2Ghz, luego vinieron variantes desde los 2.8Ghz hasta 3.6Ghz, esta última velocidad conocida como la velocidad tope para mí (con excepción de los P4 de 3.8Ghz).
Para 2006 Intel lanza los Intel Pentium Dual-Core que utilizan la tecnología de doble núcleo, fue llamado Pentium Dual-Core, a manera de aprovechar la fama de la marca Pentium; con velocidades desde los 1.3Ghz hasta los 3.06Ghz; se suelen confundir Pentium D con Pentium Dual-Core; si bien ambos procesadores son de doble núcleo, los Pentium D están basados al igual que los Pentium 4.
Par este mismo año se lanza el Intel Core 2, donde la marca Core 2 se refiere a una gama de CPUs comerciales de Intel de 64 bits de doble núcleo, comenzaron con velocidades desde los 1.06Ghz hasta los 3.33Ghz; quiero aclarar que además la marca Core 2 fue introducida el 27 de julio de 2006, abarcando las líneas Solo (un núcleo), Duo (doble núcleo), Quad (quad-core), y Extreme (CPUs de dos o cuatro núcleos para entusiastas, pero bastantes caro), es decir resumiendo tenemos Intel Core 2 Solo/Duo/Quad/Extreme; otro dato importante es que la abreviatura C2 se ha vuelto de uso común, con sus variantes C2D (el presente Core 2 Duo), y C2Q, C2E para referirse a los Core 2 Quad y Core 2 Extreme respectivamente, quiero citar que estos procesadores son los más comunes aquí en Ecuador donde el más usado es el C2D, mi actual PC de escritorio es una C2D de 2.4Ghz una bala, aunque ya se esta quedando caduca.
Después de estos para el 2008 y parte del 2009, se lanzó los Intel Core i3, i5 e i7 que son una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64 con velocidades desde los 1.06Ghz hasta los 2.66Ghz para portátiles; y bastantes caros sobrepasando los $200 el más lento, para PC de escritorios van desde los 2.93Ghz hasta los 3.46Ghz, fabricación en 32 nanómetros, que equivale a un menor consumo y un menor calor generado como principal característica, no cuento con ninguno de estos por sus altos costos.
Lo último es en este año 2010; puedo citar al Intel Core i7 980x que es el nombre del actual y primer procesador de la serie i9 de Intel (aunque todavía tiene de nombre i7 está en la categoría de los i9) fabricado con seis núcleos (12 hilos) con velocidades desde los 3.2Ghz hasta 3.7Ghz donde por fin se pasa la barrera de los 3.6Ghz; bueno hasta aquí llegamos, sé que este articulo ha sido bastante largo y técnico, pero espero que ahora conozcan mejor los procesadores de la empresa Intel,

FUTURO DE LOS MICROPROCESADORES

El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano, para empezar la velocidad se incrementará una medida del 33% con respecto a la generación del anterior. es decir, el mismo procesador usando esta nueva tecnología puede ir un 33% más rápido que el anterior. Para los que no podamos hacer una idea de este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen transistores que componen el procesador. El transistor, como muchos sabemos, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica circula entre dos puntos de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos hablando de millonésimas de segundo, tener en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos, incluso utilizando el mismo procesador. en un futuro cercano además de contar con la arquitectura de 0.25 micras podremos disfrutar de una de 0.07, para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es decir, diez GHz.
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, que actualmente cuenta con más del 90% del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar varias generaciones de maquinas que nos han entretenido y ayudado en el trabajo diario. Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia donde vamos, en lugar de en donde hemos estado. Por ello no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos 15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011, utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000 MHz) contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, permitirá realizar tareas nunca antes pensadas.

domingo, 22 de abril de 2012

MICROPROCESADORES:DEFINICION Y NUEVAS TECNOLOGIAS

DEFINICION

El microprocesador es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele asociar por analogía como el cerebro de un computador. Es un circuito integrado constituido por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.

Es el encargado de ejecutar los programas; desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

NUEVAS TECNOLOGIAS

Covington o Celeron y Mendocino
Son Pentium II económicos. No es más que intentar conseguir ordenadores con configuración de Pentium II con sólo 150.000 ptas (9.999 dólares). Para ello, aparecerán Covington y Mendocino, el primero de ellos, también conocido como Celeron, es un PII 266 Mhz por 15.000 ptas. (ese es el precio final, ahora está disponible por 23.000) y el segundo un PII 300 Mhz por 45.000 ptas. ¿Cómo se obtiene la reducción del coste? Pues, eliminando varios elementos, como la memoria caché. Mendocino limitará la memoria a 128 Kb. y Covington no tendrá nada. Con esto los actuales Pentium MMX tienen los días contados (los Pentium II están pensados para sustituirlos), junto con las placas con zócalos Socket, los SIMMs, la EDO RAM, el BUS ISA...

 

Willamette
Es un procesador de la familia P6 (Pentium Pro y Pentium II), pero incorporará varias características de la familia P7 o Merced. Aparecerá en el cuatro trimestre del 98 y será el último de los procesadores de 0,25 micras.


Merced o P7
es el gran proyecto de Intel, el primer procesador de 64 bits puros (recuerda que los Pentiums actuales tienen el bus de direcciones de 64 bits pero el de datos a 32). Tendrá un ancho de transistor de 0.18 micras y estará basado en la arquitectura IA-64: un juego de instrucciones totalmente nuevo. Intel ya a pagado 700 millones de dólares a Digital para poder usar la tecnología de su procesador Alpha, el cual le había acusado a aquél de copiarle su arquitectura. El paso de 32 a 64 bits supondrá un cambio mucho mayor al de 16 a 32 bits. El sistema de codificación nuevo, que supera al anterior del x86, es el EPIC (Codificación de Instrucciones Explícitamente en Paralelo), que combina tres instrucciones en un único registro de 128 bits, procesable a una mayor velocidad. Otras implementaciones son la arquitectura superescalar, predecodificación y carga especulativa. Intel también asegura que Merced será compatible con todas las aplicaciones de 32 bits existentes, utilizando un decodificador que convertirá las instrucciones x86 en microinstrucciones IA-64.Merced partirá de 600 MHz y llegará hasta 1.000 MHz ó 1 GHz. Tendrá dos versiones: una con una caché L2 dentro de la CPU de 2 ó 4 Mb para ordenadores servidores, y una segunda versión doméstica que tendrá la caché fuera del micro, como los PII actuales. Merced será conectado a la placa base con la ranura Slot 2, y tendrá un bus que funcionará a 100 MHz.Más de 20 empresas, como Microsoft, Bull, Oracle, Compaq y Dell, están desarrollando software para la nueva tecnología. Quizá el primer sistema operativo que explote este procesador sea Summit 3D, compatible UNIX, de 64 bits. También fomentará el desarrollo del llamado "Windows 2000".El lanzamiento de Merced ha sido aplazado hasta finales de 1999/principios de 2000.

 

Slot 2 y PC '98
 Si bien el Pentium II actual utiliza el tipo de conexión llamado "Slot 1", Merced (destinado en principio a ordenadores servidores con más de un procesador) se basará en el concepto "Slot 2" para el acoplamiento en la placa base. Este último será usado en todos los Pentium II de gama alta mayores de 300 MHz. Es un bus de 128 bits a una velocidad de 100 Mhz. Durante un tiempo ambos coexistirán, de echo, habrá dos versiones de Pentium II a 333 MHz: Slot 1 y 2.Se acabaron las tarjetas ISA. Las recomendaciones desarrolladas por Microsoft e Intel y recogidas en la propuesta PC98 proponen la eliminación total de slots para tarjetas ISA en la nueva arquitectura de las placas base. Otra de las "recomendaciones" es que los nuevos PCs no podrán soportar periféricos que se conecten a través de los puertos serie y paralelo, excepto las impresoras. Según las especificaciones, los OEMS tienen hasta enero de 1999 para eliminar las tarjetas módems internas que utilizan solos ISA y las tarjetas de sonido. Otras especificaciones hacen especial hincapié en el tema de los gráficos. Así las tarjetas deberán ser alojadas en buses PCI de 64 bits o bien AGP y se prevé que los ordenadores dedicados al entretenimiento incorporen un sintonizador analógico de TV. El PC' 98 es una revolución total al tradicional ordenador que hasta ahora hemos conocido.

 

Katmai
En concreto, el diseño de estos nuevos chips estará orientado a conseguir mejoras sustanciales en la renderización de gráficos 3D y el reconocimiento de voz. Lo más interesante es que su velocidad mínima será de 500 MHz.La tecnología Katmai era previamente conocida como MMX 2 y esencialmente representa la siguiente fase de la estrategia de informática visual de Intel. De la misma manera que el MMX, Katmai es en realidad una nueva serie de 70 instrucciones incorporadas en los procesadores Intel (frente a las 57 incorporadas por MMX). Los desarrolladores usarán estas instrucciones para crear entornos informáticos más ricos. Hay que tener en cuenta que el lanzamiento de Katmai coincidirá con mejoras en chips gráficos y de la tecnología AGP (Accelerated Graphics Port) de Intel, con lo que las posibilidades son grandes.Para animar a la aceptación de la nueva tecnología, Intel sacará al mercado programas y aplicaciones que usen la tecnología, mucho antes de que se ponga a la venta el chip. Por su parte, ciertas herramientas de desarrollo para Katmai ya fueron distribuidas en 1997.Uno de los campos en los que se espera más desarrollo y más pronto, es precisamente en el de los juegos, por lo que este mercado se introducirá cada vez mas en nuestras casas.La introducción de Katmai se producirá previamente al lanzamiento del chip Merced de Intel, su nueva generación de chips de 64 bits. La nueva tecnología aparecerá exclusivamente a partir de 1999 en procesadores Pentium II. Precisamente, sobre esas fechas, uno de los competidores de Intel, AMD, lanzará también sus nuevos procesadores K6 3D (Chompers) y, seguidamente, su esperado y secreto K7.

AMD: K6, 3D y K7
AMD es una empresa fabricante de microprocesadores y la principal competencia de INTEL. Sus nuevos procesadores ofrecerán características no incluidas en los Pentium's. Ya han sido presentados el AMD K6 a 266 MHz y 300 MHz, con la tecnología de 0,25 micras y 68 milímetros cuadrados de tamaño. El K6 3D a 300 Mhz saldrá en el tercer trimestre del 98. Incluirá 24 instrucciones MMX nuevas aparte de las ya existentes, bus de 100 MHz y AGP. Está montado unas las placas con el socket 7 utilizado hasta ahora en los Pentium's tradicionales llamada Super 7. Tendrá un rendimiento mayor al Pentium II, y permitirá reproducir MPEG-2 y sonido AC-3 gracias a DirectX 6.0 sin hardware adicional.
k6

3D
 K7

viernes, 20 de abril de 2012

COMPUTACION CUANTICA:DEFINICION, ORIGEN Y CRONOLOGIA

DEFINICION

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing cuántica.

ORIGEN

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones)

CRONOLOGIA

Años 80
A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.

1981 - Paul Benioff
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.

1981-1982 Richard Feynman
El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico
.
1985 - David Deutsch
Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.

Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.

1993 - Dan Simon
Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).

1993 - Charles Benett
Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.

1994-1995 Peter Shor
Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.

1996 - Lov Grover
Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.

1997 - Primeros experimentos
En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.

1998 - 1999 Primeros Qbit
Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.

Año 2000 hasta ahora

2000 - Continúan los progresos
De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.

2001 - El algoritmo de Shor ejecutado
IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos

2005  El primer Qbyte
El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 - Mejoras en el control del cuanto
Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.

2007 - D-Wave
La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina, llamada Orion, no es realmente una computadora cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

2007 - Bus cuántico
En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.

2008 - Almacenamiento
Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos consiguió almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico", pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este periodo puede ser expansible mediante métodos de corrección de errores, por lo que es un gran avance en el almacenamiento de información.

2009 - Procesador cuántico de estado sólido
El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente.

2011 - Primera computadora cuántica vendida
La primera computadora cuántica comercial es vendida por la empresa D-Wave Systems fundada en 1999 a Lockheed Martin por 10 millones de dólares.

2012 - Avances en chips cuánticos
IBM anuncia que ha creado un chip lo suficientemente estable para permitir que la informática cuántica llegue a hogares y empresas, se estima que en unos 10-12 años se pueda estar comercializando los primeros sistemas cuánticos.

EVOLUCION FUTURA DE LOS ORDENADORES

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño.

Los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.

Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes

ESTRUCTURA FISICA Y LOGICA DE UNA COMPUTADORA

HARDWARE

Es la estructura fisica de un computador por tanto es la tangible y visible lo cual normalmente se clasifica en dispositivos de entrada y en dispositivos de salida

dispositivos de entrada

Son los que permiten al usuario que ingrese información desde el exterior. Entre ellos podemos encontrar: teclado, mouse o ratón, escáner, SAI (Sistema de Alimentación Ininterrumpida), micrófono, cámara web , lectores de código de barras, Joystick, etc.

Ratón o Mouse: Es un dispositivo empleado para señalar en la pantalla objetos u opciones a elegir; desplazándose sobre una superficie según el movimiento de la mano del usuario.
Normalmente se utilizan dos botones del ratón, el principal y el secundario que corresponden con el botón izquierdo y derecho respectivamente. Si eres zurdo puedes cambiar esta configuración en Configuración, Panel de Control, icono Mouse y activar la casilla "Zurdo". Con el botón principal se realizan las operaciones más usuales como hacer clic, doble clic y arrastrar. Mientras que con el botón secundario normalmente aparece el menú contextual.

Teclado: Es el periférico de entrada por excelencia, introduce texto escrito en la computadora. Este dispositivo ha ido evolucionando con la incorporación de teclas y nuevas funciones, pulsando las mismas se introducen números, letras u otros caracteres, también se puede realizar determinadas funciones al combinar varias de ellas.
Entre las partes del teclado podemos distinguir: el teclado numérico, que facilita el trabajo con datos numéricos, las teclas de navegación que permiten ir rápidamente al principio de una línea, pagina o documento, las teclas especiales y de función.

Escáner: Se emplea para digitalizar una imagen y sonidos, convirtiéndolos en archivos manejables en la computadora, solo se requiere un micrófono que se conecta a la carcasa de la misma. La resolución en un escáner se mide en puntos por pulgada y se expresa con 2 números.

dispositivos de salida

Son los que muestran al usuario el resultado de las operaciones realizadas por el PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc.

Monitor: es el dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo del ordenador o computadora. El término monitor se refiere normalmente a la pantalla de vídeo y su carcasa.
El monitor se conecta al adaptador de vídeo mediante un cable. La calidad del monitor se mide por su tamaño (especificado como la longitud de la diagonal de la pantalla, medida en pulgadas), el tamaño del punto, la frecuencia de barrido horizontal y la frecuencia de barrido vertical o frecuencia de refresco.

Impresora: periférico para ordenador o computadora que traslada el texto o la imagen generada por computadora a papel u otro medio, como transparencias o diversos tipos de fibras. Las impresoras se pueden dividir en categorías siguiendo diversos criterios.
La distinción más común se hace entre las que son de impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta e impresoras láser.
CPU:Es el componente que interpreta instrucciones y procesa datos. Es el elemento fundamental,el cerebro de la computadora cuyo trabajo es que el resto de componentes funcionen correctamente y de manera coordinada. Las unidades centrales de proceso no sólo están presentes en los ordenadores personales, sino en todo tipo de dispositivos que incorporan una cierta "inteligencia" electrónica 


Unidades de Almacenamiento:

Estas unidades se encargan de guardar los datos que se producen durante el funcionamiento del procesador para un posterior uso, o simplemente para guardar determinados datos como, fotografías, documentos, etc. De manera que podemos decir que los datos en una computadora se guardan en las unidades de almacenamiento de forma permanente o temporal. Estas unidades se clasifican en:

Unidades de almacenamiento primario: incluye la memoria de acceso aleatorio (RAM), la cual se compone de uno o más chips y se utiliza como memoria de trabajo para programas y datos. Es un tipo de memoria temporal que pierde sus datos cuando se queda sin energía; y la memoria de solo lectura (ROM), la cual está destinada a ser leída y no destructible, es decir, que no se puede escribir sobre ella y que conserva intacta la información almacenada.

Unidades de almacenamiento secundario: Tenemos el disco duro, el cual es el dispositivo encargado de almacenar información de forma permanente en una computadora; los discos compactos o CD, que son un soporte digital óptico utilizado para almacenar cualquier tipo de información; los DVD o disco de video digital, los cuales son un formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio; y los dispositivos de almacenamiento extraíbles.

SOFTWARE

es la estructura logica del computador la cual vemos pero no tocamos.Una vez escrito mediante algún lenguaje de programación, este hace funcionar en ordenadores, que temporalmente se convierten en esa máquina para la que el programa sirve de plan, de igual manera permite la relación entre el ser humano y a la máquina y también a las máquinas entre sí. Sin ese conjunto de instrucciones programadas, los ordenadores serían objetos inertes, como cajas de zapatos, sin capacidad siquiera para mostrar algo en la pantalla.

Clasificaciones del Software

Sistemas Operativos
Software de Uso General
Lenguajes de Programación


Sistema Operativo
Es aquel que controla y administra el computador, tiene tres grandes funciones:

Coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el mouse.

Organiza los archivos en diversos dispositivos de almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas, y gestiona los errores de hardware y la pérdida de datos.
Entre las funciones del Sistema Operativo se tiene:
Aceptar todos los trabajos y conservarlos hasta su finalización. 

Interpretación de comandos: Interpreta los comandos que permiten al usuario comunicarse con el ordenador. 

Control de recursos: Coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el Mouse. 

Características de los sistemas operativos

Conveniencia: lo que lo hace más conveniente el uso de una computadora. 

Eficiencia: permite que los recursos de la computadora se usen de la manera más eficiente posible.

Habilidad para evolucionar: deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema, sin interferir con el servicio.

Encargado de administrar el hardware : se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una parte del procesador para poder compartir los recursos.

Software de Uso General

El software de uso general son aquellos que permiten resolver problemas muy variados del mismo tipo, de muy diferentes empresas o personas, con adaptaciones realizadas por un usuario, ejemplos: procesadores de texto, manejadores de bases de datos, hojas de cálculo, etc.

El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada al usuario (manual de referencia, plantillas de teclado, etc.

Software de aplicación

El software de aplicación esta diseñado y escrito para realizar tareas específicas personales, empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios. Todas éstas aplicación es procesan datos (recepción de materiales) y generan información (registros de nómina) para el usuario.


El Software de aplicación, dirige las distintas tareas para las que se utilizan las computadoras. Además lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares.

El Procesador de textos, en informática, constituye una aplicación utilizada para la manipulación de documentos basados en texto. Es el equivalente electrónico del papel, el bolígrafo, la máquina de escribir, el borrador y el diccionario. En principio, los procesadores de textos se utilizaban en máquinas dedicadas específicamente a esta tarea; hoy se usan en ordenadores o computadoras de propósito general, en los que el procesador de textos es sólo una de las aplicaciones instaladas.

El Programa de hoja de cálculo, en informática, constituyela aplicación utilizada normalmente en tareas de balances, creación de presupuestos o previsiones, y en otras tareas financieras. En un programa de hoja de cálculo, los datos y las fórmulas necesarias para su tratamiento se introducen en formularios tabulares (hojas de cálculo u hojas de trabajo), y se utilizan para analizar, controlar, planificar o evaluar el impacto de los cambios reales o propuestos sobre una estrategia económica. Los programas de hoja de cálculo usan filas, columnas y celdas; una celda es la intersección de una fila con una columna. Cada celda puede contener texto, datos numéricos o una fórmula que use valores existentes en otras celdas para hacer un cálculo determinado (como sumar los datos de un conjunto de celdas o multiplicar el dato de cada celda por un factor). Para facilitar los cálculos, estos programas incluyen funciones incorporadas que realizan operaciones estándar. Si se modifica el valor de un dato, la hoja de cálculo permitirá recalcular fácilmente los resultados para el nuevo dato, lo que hace que estas aplicaciones sean tan útiles en análisis de tendencias, ya que permiten conocer con rapidez el resultado de aplicar distintos cambios y elegir así la estrategia que más convenga; es lo que se conoce popularmente como analizar “qué pasaría si...”. Esta capacidad ha motivado que las hojas de cálculo tengan una gran aceptación.

Lenguajes de Programación

Constituyen el software empleadopar a desarrollar sistemas operativos, o las aplicaciones de carácter general , mediante los programas se indica a la computadora que tarea debe realizar y cómo efectuarla, pero para ello es preciso introducir estas órdenes en un lenguaje que el sistema pueda entender.

En principio, el ordenador sólo entiende las instrucciones en código máquina, es decir, el específico de la computadora. Sin embargo, a partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel.

El Lenguaje de programación, en informática, puede utilizarse para definir una secuencia de instrucciones para su procesamiento por un ordenador o computadora. Es complicado definir qué es y qué no es un lenguaje de programación. Se asume generalmente que la traducción de las instrucciones a un código que comprende la computadora debe ser completamente sistémica. Normalmente es la computadora la que realiza la traducción

Los lenguajes de programación son herramientas que nos permiten crear programas y software. Entre ellos tenemos Del phi, Visual Basic, Pascal, Java, etc..

Una computadora funciona bajo control de un programa el cual debe estar almacenado en la unidad de memoria; tales como el disco duro.
Los lenguajes de programación facilitan la tarea de programación, ya que disponen de formas adecuadas que permiten ser leídas y escritas por personas, a su vez resultan independientes del modelo de computador a utilizar.
Los lenguajes de programación son independientes de las computadoras a utilizar.

Existen estrategias que permiten ejecutar en una computadora un programa realizado en un lenguaje de programación simbólico. Los procesadores del lenguaje son los programas que permiten el tratamiento de la información en forma de texto, representada en los

lenguajes de programación simbólicos.