jueves, 24 de mayo de 2012

SOPA DE LETRAS

 

ABACO 
ALGORITMOS
APRENDIZAJE 
BASEDEDATOS 
CELULAR
COMPILADO
COMPUTACIONCUANTICA
CONTROLSENSORIZADO
CPU
CUARTAGENERACION 
DECLARATIVOS
DISCODURO
EDVAC
ENIAC 
ESCANER
EVOLUCION 
EXPERTOS
HADRWARE
IMPRESORA
INTEL
INTELIGENTES
INTERPRETADO
LENGUAJEDEPROGRAMACION
LOGARITMOS
MANIPULADORES
MAQUINA
MARK
MICROPROCESADORES
MONITOR
ORDENADOR
PRIMERAGENERACION
QUINTAGENERACION
RATON
ROBOT  
SEGUNDAGENERACION
SISTEMAOPERATIVO
SOFTWARE  
TARJETASPERFORADAS
TECLADO
TERCERAGENERACION
TRANSICION
UNIVAC 



 

jueves, 3 de mayo de 2012

CONCEPTO DE CELULAR Y SUS GENERACIONES

CONCEPTO DE CELULAR

La palabra celular es modernamente aplicada a los teléfonos móviles, que son dispositivos electrónicos inalámbricos, y a la telefonía celular móvil, que permite el funcionamiento de esos aparatos o celulares, para poder alcanzar el propósito comunicacional para el que han sido creados.
Si bien existen redes telefónicas satelitales móviles, el nombre celular proviene de la red de antenas repetidoras organizadas en red, donde cada antena es una célula interconectada en forma de malla, que realizan el enlace entre los aparatos y las estaciones de base. Las estaciones receptan las frecuencias y las transmiten de unas células o estaciones a otras, hasta llegar al destino requerido. Las redes de telefonía móvil pueden ser analógicas o digitales.
Los teléfonos celulares han tenido una gran difusión por su portabilidad, el acercamiento de las comunicaciones, aún en grandes distancias, y sin requerirse un punto fijo para lograr la comunicación, y cada vez se les incorporan funciones más sofisticadas que le adicionan a su primordial función de aparato telefónico, la de cámara fotográfica, agenda, envío de mensajes de texto, MP 3, radio y servicios de Internet
.
GENERACIONES DE CELULARES 

PRIMERA GENERACION (1G):

En 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile Telephony 450 MHz). Este sistema seguía utilizando canales de radio analógicos (frecuencias en torno a 450 MHz) con modulación en frecuencia (FM). Era el primer sistema del mundo de telefonía móvil tal como se entiende hoy en día.
Los equipos 1G pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época, ya que podían ser trasladados y utilizados por una única persona.
En 1986, Ericsson modernizó el sistema, llevándolo hasta el nivel NMT 900. Esta nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias superiores (del orden de 900 MHz). Esto posibilitó dar servicio a un mayor número de usuarios y avanzar en la portabilidad de los terminales.
Además del sistema NMT, en los 80 se desarrollaron otros sistemas de telefonía móvil tales como: AMPS (Advanced Mobile Phone System) en EE. UU. y TACS (Total Access Comunication System).
El sistema TACS se utilizó en España con el nombre comercial de MoviLine. Estuvo en servicio hasta su extinción en 2003.
SEGUNDA GENERACION (2G):

En la década de 1990 nace la segunda generación, que utiliza sistemas como GSM, IS-136, iDEN e IS-95. Las frecuencias utilizadas en Europa fueron de 900 y 1800 MHz.
El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la fabricación del Terminal (con la reducción de costos que ello conlleva). En esta época nacen varios estándares de comunicaciones móviles: D-AMPS (EE. UU.), PDC (Japón), cdmaOne (EE. UU. y Asia) y GSM.
Muchas operadoras telefónicas móviles implementaron Acceso múltiple por división de tiempo (TDMA) y Acceso múltiple por división de código (CDMA) sobre las redes Amps existentes convirtiéndolas así en redes D-AMPS. Esto trajo como ventaja para estas empresas poder lograr una migración de señal analógica a señal digital sin tener que cambiar elementos como antenas, torres, cableado, etc. Inclusive, esta información digital se transmitía sobre los mismos canales (y por ende, frecuencias de radio) ya existentes y en uso por la red analógica. La gran diferencia es que con la tecnología digital se hizo posible hacer Multiplexion, tal que en un canal antes destinado a transmitir una sola conversación a la vez se hizo posible transmitir varias conversaciones de manera simultánea, incrementando así la capacidad operativa y el número de usuarios que podían hacer uso de la red en una misma celda en un momento dado.
El estándar que ha universalizado la telefonía móvil ha sido el archiconocido GSM: Global System for Mobile communications o Groupe Spécial Mobile.
Realmente, GSM ha cumplido con todos sus objetivos pero al cabo de un tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de voz o datos a baja velocidad (9.6 Kbps) y el mercado empezaba a requerir servicios multimedia que hacían necesario un aumento de la capacidad de transferencia de datos del sistema. Es en este momento cuando se empieza a gestar la idea de 3G, pero como la tecnología CDMA no estaba lo suficientemente madura en aquel momento se optó por dar un paso intermedio: 2.5G.
 

GENERACION DE TRANSICION (2.5G):

Dado que la tecnología de 2G fue incrementada a 2.5G, en la cual se incluyen nuevos servicios como EMS y MMS
Para poder prestar estos nuevos servicios se hizo necesaria una mayor velocidad de transferencia de datos, que se hizo realidad con las tecnologías GPRS y EDGE.
TERCERA GENERACION (3G):

3G nace de la necesidad de aumentar la capacidad de transmisión de datos para poder ofrecer servicios como la conexión a Internet desde el móvil, la videoconferencia, la televisión y la descarga de archivos. En este momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal Mobile Telecommunications System).
UMTS utiliza la tecnología CDMA, lo cual le hace alcanzar velocidades realmente elevadas (de 144 Kbps hasta 7.2 Mbps, según las condiciones del terreno).
UMTS ha sido un éxito total en el campo tecnológico pero no ha triunfado excesivamente en el aspecto comercial. Se esperaba que fuera un bombazo de ventas como GSM pero realmente no ha resultado ser así ya que, según parece, la mayoría de usuarios tiene bastante con la transmisión de voz y la transferencia de datos por GPRS y EDGE

CUARTA GENERACION (4G):

La generación 4, o 4G será la evolución tecnológica que ofrecerá al usuario de telefonía móvil un mayor ancho de banda que permitirá, entre muchas otras cosas, la recepción de televisión en Alta Definición.Como ejemplo, podemos citar al concept mobile Nokia Morph.
Hoy en día existe un sistema de este nivel operando con efectividad solo con algunas compañias de EEUU, llamado LTE.

CONCEPTO DE ROBOT Y SUS GENERACIONES

CONCEPTO DE ROBOT

Un robot es una entidad virtual o mecánica artificial. En la práctica, esto es por lo general un sistema electromecánico que, por su apariencia o sus movimientos, ofrece la sensación de tener un propósito propio. La palabra robot puede referirse tanto a mecanismos físicos como a sistemas virtuales de software, aunque suele aludirse a los segundos con el término de bots.
No hay un consenso sobre qué máquinas pueden ser consideradas robots, pero sí existe un acuerdo general entre los expertos y el público sobre que los robots tienden a hacer parte o todo lo que sigue: moverse, hacer funcionar un brazo mecánico, sentir y manipular su entorno y mostrar un comportamiento inteligente, especialmente si ese comportamiento imita al de los humanos o a otros animales. Actualmente podría considerarse que un robot es una computadora con la capacidad y el propósito de movimiento que en general es capaz de desarrollar múltiples tareas de manera flexible según su programación; así que podría diferenciarse de algún electrodoméstico específico.
Aunque las historias sobre ayudantes y acompañantes artificiales, así como los intentos de crearlos, tienen una larga historia, las máquinas totalmente autónomas no aparecieron hasta el siglo XX. El primer robot programable y dirigido de forma digital, el Unimate, fue instalado en 1961 para levantar piezas calientes de metal de una máquina de tinte y colocarlas.
Por lo general, la gente reacciona de forma positiva ante los robots con los que se encuentra. Los robots domésticos para la limpieza y mantenimiento del hogar son cada vez más comunes en los hogares. No obstante, existe una cierta ansiedad sobre el impacto económico de la automatización y la amenaza del armamento robótico, una ansiedad que se ve reflejada en el retrato a menudo perverso y malvado de robots presentes en obras de la cultura popular. Comparados con sus colegas de ficción, los robots reales siguen siendo limitados.
                                          
GENERACIONES DE ROBOTS

PRIMERA GENERACION:MANIPULADORES
Esta primera etapa se puede considerar desde los años 50 ,en donde las maquinas diseñadas cuentan con un sistema de control relativamente sencillo de lazo abierto, esto significa que no existe retroalimentación alguna por parte de algún sensor y realizan tareas previamente programadas que se ejecutan secuencialmente.
 

SEGUNDA GENERACION:ROBOTS DE APRENDIZAJE
La segunda etapa se desarrolla hasta los años 80, este tipo de robots son un poco mas conscientes de su entorno que su previa generación, disponiendo de sistemas de control de lazo cerrado en donde por medio de sensores adquieren información de su entorno y obtienen la capacidad de actuar o adaptarse según los datos analizados.También pueden aprender y memorizar la secuencia de movimientos deseados mediante el seguimiento de los movimientos de un operador humano.
 

TERCERA GENERACION:ROBOTS CON CONTROL SENSORIZADO
 Durante esta etapa, que tiene lugar durante los años 80 y 90, los robots ahora cuentan con controladores(computadoras) que usando los datos o la información obtenida de sensores, obtienen la habilidad de ejecutar las ordenes de un programa escrito en alguno de los lenguajes de programación que surgen a raíz de la necesidad de introducir las instrucciones deseadas en dichas maquinas.
Los robots usan control del tipo lazo cerrado, lo cual significa que ahora son bastante conscientes de su entorno y pueden adaptarse al mismo.

CUARTA GENERACION:ROBOTS INTELIGENTES
Esta generación se caracteriza por tener sensores mucho mas sofisticados que mandan información al controlador y analizarla mediante estrategias complejas de control. Debido a la nueva tecnología y estrategias utilizadas estos robots califican como "inteligentes", se adaptan y aprenden de su entorno utilizando "conocimiento difuso" , "redes neuronales", y otros métodos de análisis y obtención de datos para así mejorar el desempeño general del sistema en tiempo real, donde ahora el robot puede basar sus acciones en información mas solida y confiable, y no solo esto sino que también se pueden dar la tarea de supervisar el ambiente que les rodea, mediante la incorporación de conceptos "modélicos" que les permite actuar a situaciones determinadas.

QUINTA GENERACION Y MAS ALLA
La siguiente generación sera una nueva tecnología que incorporara 100% inteligencia artificial y utilizara modelos de conducta y una nueva arquitectura de subsumción.
Esta etapa depende totalmente de la nueva generación de jóvenes interesados en robótica, una nueva era de robots nos espera.

DEFINICION DE LOGICA DE PROGRAMACION Y LOGICA-ALGORITMOS

LOGICA DE PROGRAMACION

La lógica de programación es un tipo de paradigmas de programación dentro del paradigma de programación declarativa. El resto de los subparadigmas de programación dentro de la programación declarativa son: programación funcional, programación con restricciones, programas DSL (de dominio específico) e híbridos. La lógica de programación  gira en torno al concepto de predicado, o relación entre elementos. La programación funcional se basa en el concepto de función (que no es más que una evolución de los predicados), de corte más matemático.

LOGICA-ALGORITMOS

La palabra algoritmo se deriva de la traducción al latín de la palabra árabe alkhowarizmi, nombre de un matemático y astrónomo árabe que escribió un tratado sobre manipulación de números y ecuaciones en el siglo IX.

Un algoritmo es una serie de pasos organizados que describe el proceso que se debe seguir, para dar solución a un problema especifico


LENGUAJES EXPERTOS,COMPILADO,INTERPRETADO,DECLARATIVOS Y DESCRIPCION DE LENGUAJE MAQUINA

LENGUAJE EXPERTOS

Lenguaje experto, en informática, un lenguaje informático o sistema de programación de aplicaciones diseñado para crear programas, bases de datos y materiales para enseñanza asistida por ordenador o computadora.
hay una gran abundancia de lenguajes expertos desarrollados para cada aplicación específica que, según los casos, toman como base la filosofía y la base sintáctica de los anteriores, o de otros de aplicación más general.

LENGUAJE COMPILADO

Un lenguaje compilado es término un tanto impreciso para referirse a un lenguaje de programación que típicamente se implementa mediante un compilador. Esto implica que una vez escrito el programa, éste se traduce a partir de su código fuente por medio de un compilador en un archivo ejecutable para una determinada plataforma
Los lenguajes compilados son lenguajes de alto nivel en los que las instrucciones se traducen del lenguaje utilizado a código máquina para una ejecución rápida.
 

LENGUAJE INTERPRETADO

Un lenguaje interpretado es aquel en el que las instrucciones se traducen o interpretan una a una siendo típicamente unas 10 veces más lentos que los programas compilados.
Algunos entornos de programación incluyen los dos mecanismos, primero el código fuente se traduce a un código intermedio que luego se interpreta en una máquina virtual, pero que también puede compilarse justo antes de ejecutarse.
 

LENGUAJE DECLARATIVO

Un lenguaje declarativo es un tipo de lenguaje de programación basado más en las matemáticas y en la lógica que los lenguajes imperativos, más cercanos estos al razonamiento humano. Los lenguajes declarativos no dicen cómo hacer una cosa, sino, más bien, qué cosa hacer. A diferencia de los imperativos, no suele haber declaración de variables ni tipos.

LENGUAJE MAQUINA

El lenguaje máquina es el único lenguaje que puede ejecutar una computadora. El lenguaje de máquina es un código que es interpretado directamente por el microprocesador.
El lenguaje está compuesto por un conjunto de instrucciones ejecutadas en secuencia  que representan acciones que la máquina podrá tomar.
Un lenguaje máquina es específico de cada
arquitectura de computadora.
Todo
código fuente en última instancia debe llevarse a un lenguaje máquina mediante el proceso de compilación o interpretación para que la computadora pueda ejecutarlo.

DEFINICION DE LENGUAS DE PROGRAMACION Y SUS TIPOS DE BAJO Y ALTO NIVEL

DEFINICION

Es un idioma artificial diseñado para mostrar procesos que pueden ser llevados a cabo por máquinas como las computadoras. Pueden usarse para crear programas que controlen el comportamiento físico y lógico de una máquina, para expresar algoritmos con precisión, o como modo de comunicación humana. Está formado por un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones.

TIPOS:

BAJO NIVEL
Un lenguaje de programación de bajo nivel es el que proporciona un conjunto de instrucciones aritmeticológicas sin la capacidad de encapsular dichas instrucciones en funciones que no estén ya contempladas en la arquitectura del hardware.

ALTO NIVEL
Un lenguaje de programación de alto nivel se caracteriza por expresar los algoritmos de una manera adecuada a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las máquinas.
En los primeros lenguajes de alto nivel la limitación era que se orientaban a un área específica y sus instrucciones requerían de una sintaxis predefinida. Se clasifican como lenguajes procedimentales.
Otra limitación de los lenguajes de alto nivel es que se requiere de ciertos conocimientos de programación para realizar las secuencias de instrucciones lógicas
.

viernes, 27 de abril de 2012

SISTEMAS OPERATIVOS Y BASE DE DATOS

SISTEMA OPERATIVO

Un sistema operativo es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, y se ejecuta en modo privilegiado respecto de los restantes.
Es un error común, denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel.

BASE DE DATOS

Una base de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e ingresados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos.
Existen programas denominados sistemas gestores de bases de datos o mejor dicho SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas. También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran protegidos por las leyes de varios países.

miércoles, 25 de abril de 2012

HARDWARE Y SOFTWARE Y SU DIFERENCIA

La diferencia del hardware y del software es que el hardware simplemente es lo que le vemos al computador sea portatil o de mesa En cambio, el software viene a ser todos y cada uno de los elementos que a pesar de que los podemos ver funcionar en el equipo, no los podemos tocar . Es así que el software viene a ser el sistema operativo y cada una de las aplicaciones que hemos instalado en el computador para ser usado a nuestro beneficio.

HARDWARE
 
SOFTWARE
                

DISCO DURO:DEFINICION,ESTRUCTURA FISICA Y LOGICA,CARACTERISTICAS Y NUEVA GENERACION

DEFINICION

Un disco duro (del inglés hard disk (HD)es un disco magnético en el que puedes almacenar datos de ordenador. El disco duro es la parte de tu ordenador que contiene la información electrónica y donde se almacenan todos los programas (software). Es uno de los componentes del hardware más importantes dentro de tu PC.
El término duro se utiliza para diferenciarlo del disco flexible o disquete (floppy en inglés). Los discos duros pueden almacenar muchos más datos y son más rápidos que los disquetes. Por ejemplo, un disco duro puede llegar a almacenar más de 100 gigabytes, mientras que la mayoría de los disquetes tienen una memoria máxima de 1.4 megabytes.
 

ESTRUCTURA FISICA

Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..
Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).

ESTRUCTURA LOGICA


La estructura lógica de un disco duro esta formado por:
Sector de arranque.
Espacio particionado.
Espacio sin particionar.
Espacio particionado: Es el espacio del disco que ha sido asignado a alguna partición.
Espacio sin particionar: Es el espacio del disco que no ha sido asignado a ninguna partición.
Sector de arranque: Es el primer sector de un disco duro en él se almacena la tabla de particiones y un programa pequeño llamado Master Boot. Este programa se encarga de leer la tabla de particiones y ceder el control al sector de arranque de la partición activa, en caso de que no existiese partición activa mostraría un mensaje de error.
A su vez la estructura lógica de los discos duros internamente se pueden dividir en varios volúmenes homogéneos dentro de cada volumen se encuentran una estructura que bajo el sistema operativo MS-DOS es el siguiente:
Cada zona del volumen acoge estructuras de datos del sistema de archivos y también los diferentes archivos y subdirectorios. No es posible decir el tamaño de las diferentes estructuras ya que se adaptan al tamaño del volumen correspondiente.
A continuación vamos a definir cada una de las estructuras mostrada en el cuadro.

Sector de arranque (BOOT): En el sector de arranque se encuentra la información hacerca de la estructura de volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. Al formatear un volumen el BOOT se crea siempre como primer sector del volumen para que sea fácil su localización por el DOS.

Tabla de asignación de ficheros (FAT): La FAT se encarga de informar al DOS que sectores del volumen quedan libres, esto es por si el DOS quiere crear nuevos archivos o ampliar archivos que ya existen. Cada entrada a la tabla se corresponde con un número determinado de sectores que son adyacentes lógicamente en el volumen.
Uno o más copias de la FAT: El DOS permite a los programas que hacen el formateo crear una o varias copias idénticas de la FAT, esto va a ofrecer la ventaja de que se pueda sustituir la FAT primaria en caso de que una de sus copias este defectuosa y así poder evitar la perdida de datos.

Directorio Raíz: El directorio raíz representa una estructura de datos estática, es decir, no crece aún si se guardan más archivos o subdirectorios. El tamaño del directorio raíz esta en relación al volumen, es por eso que la cantidad máxima de entradas se limita por el tamaño del directorio raíz que se fija en el sector de arranque.
Zona de datos para archivos y subdirectorios: Es la parte del disco duro donde se almacenan los datos de un archivo. Esta zona depende casi en su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.
CARACTERÍSTICAS
Los fabricantes de discos duros miden la velocidad en términos de tiempo de búsqueda, tiempo de acceso, latencia y tasa de transferencia de datos:
1.-Capacidad de almacenamiento: Se refiere a la cantidad de información que se pueda almacenar o grabar en un disco duro. Su medida en la actualidad en GB aunque también en TB.
2.-Velocidad de rotación: Es la velocidad a la que giran los platos del disco cuya regla es que a mayor velocidad de rotación mayor será la transferencia de datos, pero a su vez será mayor ruido y también mayor calor generado por el disco. La velocidad de rotación se mide en revoluciones por minuto (RPM).
3.-Tiempo de acceso: Es el tiempo medio necesario que tarda la cabeza del disco en acceder a los datos. Es la suma de varias velocidades:
El tiempo que tarda el disco en cambiar de una cabeza a otra cuando busca datos.
El tiempo que tarda la cabeza lectora en buscar la pista con los datos saltando de una en otra.
El tiempo que tarda la cabeza en buscar el sector correcto en la pista.
Por lo tanto el tiempo de acceso es la combinación de tres factores.
3.1.-Tiempo de búsqueda: Es el intervalo tiempo que el toma a las cabezas de lectura/escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda varía en cada búsqueda.Un tiempo de búsqueda bajo es algo muy importante para un buen rendimiento del disco duro
3.2.-Latencia: Cada pista de un disco duro contiene múltiples sectores, una vez que la cabeza de lectura/escritura encuentra la pista correcta las cabezas permanece en el lugar inactivas hasta que el sector pasa por debajo de ellas, este tiempo de espera se llama latencia. La latencia promedio es el tiempo para que el disco una vez que esta en la pista correcta encuentre el sector deseado, es decir, es el tiempo que tarda el disco en dar media vuelta.
3.3.-Command Overhead: Es el tiempo que le toma a la controladora procesar un requerimiento de datos.
4.-Tasa de transferencia de datos: Esta medida indica la cantidad de datos que un disco puede leer o escribir en la parte más exterior del disco en un periodo de un segundo
5.-Memoria Caché: Es una memoria que va incluida en la controladora del disco duro, de modo que todos los datos que se leen y escriben en el disco duro se almacenan primeramente en esta memoria.
NUEVA GENERACION
 Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía.









EVOLUCION DE LOS MICROPROCESADORES INTEL

TESTIMONIO DE LA EVOLUCION QUE A LLEVADO INTEL CON SUS MICROPROCESADORES
voy a empezar desde el procesador Intel 8086, solo lo vi en foto y mencionado por mis profesores de informática, este tenía la sorprendente velocidad de 4.77Mhz, si tal como escribí; y aquí mi aclaración, hoy en día hablamos de 2.4GHZ o 3.0GHZ y un poco más; que vienen a ser 2400Mhz y 3000Mhz respectivamente comparados con los 4.77Mhz, déjenme decirles que para la época este procesador era un correcaminos, salió en 1979 yo nací en el 78.
Luego conocí el INTEL 80286 de la mano del papa de un amigo mío de la infancia Milton Ordoñez, debo decir que su papa había adquirido algunas computadoras con este procesador; ese procesador salió al mercado en 1982 yo tenía solo 4 años; para cuando lo probé ya estaba en el colegio este oscilaba entre los 6 a 8Mhz, que al paso del tiempo me entere llegaron a los 25Mhz.
Luego por noticias de mi época de colegio escuche del mayor avance hasta el momento en el desarrollo de los procesadores, del nuevo Intel 80386, lo vi en fotos del año 1986 cuando salió al mercado, yo tenía 8 años y en esa época aún no me atraía el mundo informático.
Todo comienza cuando me compran mi primer computador PC, un PS/1 de IBM que venía con el procesador Intel 80486SX a 33Mhz con 4Mb RAM, hoy en día hablamos de 4GB RAM ósea 4000Mb aproximadamente, este salió en el año de 1989, yo tenía 11 años, pero este PC me lo compraron en el año 1993 cuando tenía 15 años, este equipo era un todoterreno para la época, y sí; hay que decirlo, Ecuador siempre andaba desfasado con la tecnología que nos llegaba.
Con este PC, hice de todo, desde portar mis primeros juegos del ATARI130XE (1.79Mhz de 128Kb de RAM) al Basic y Qbasic de Microsoft luego pase por COBOL, FOX 2.5 y 2.6 en el colegio; luego aprendí lenguaje C, Pascal, Windows 3.11 y 95, RMCOBOL, RPG y lenguaje ensamblador en la Universidad, usando esta misma computadora, por eso dije un todoterreno y una buena inversión por parte de mi mama.
Recuerdo que a mi amigo Milton le compraron después un PC Clon que venía con un procesador Intel 80486DX2 de 66 Mhz, es decir el doble de rápida que la mía, y en esa época de juventud probamos un montón de juegos en nuestros computadores para probar la velocidad, como Prince of Persia 1, Jazz Jack Rabbit, WOLFENSTEIN 3D, DOOM, DOOM2, DUKE NUKEM,DESCENT 1 y 2, QUAKE 1 y 2 y Megarace 1 de la mano de otro amigo llamado Álvaro que le compraron una pc con el mismo procesador de Milton, anecdótico era que el famoso Doom fue hecho para correr mínimo en mi computadora, un aplauso para los programadores de ID Software.
Luego a un amigo del colegio llamado Wellington le compraron su computador, oh sorpresa! venía con un procesador Intel 80486DX4 de 100Mhz, yo no lo podía creer semejante velocidad, aquí hicimos un sistema de control de tarjeta de crédito en Fox 2.6 para el Vicente Rocafuerte que hablaba y fue nuestra tesis de graduación, aun me acuerdo cuando nos exoneraron de los exámenes de grado.
Con este procesador pudimos ejecutar juegos de la talla de Mortal Kombat 1,2 y 3 para una exposición de la tarjeta Sound Blaster 16 en el colegio, para esa época con Milton comenzamos a probar el cambio de procesador a nuestros PC, basados en el sistema OverDrive de Intel, así que yo migre de mi 486SX a un 486DX2 de 66Mhz y aumente la RAM a 16Mb, Milton se pasó a un procesador de la empresa AMD de 133Mhz, con ese era al amo y señor de la velocidad.
En cuanto a las versiones de los 80486, puedo destacar el Intel 80486-DX – La versión modelo, con las características indicadas anteriormente, Intel 80486-SX – Un i486DX con la unidad de coma flotante deshabilitada, para reducir su coste, Intel 80486-DX2 – Un i486DX que internamente funciona al doble de la velocidad del reloj externo, Intel 80486-DX4 – Un i486DX2 pero triplicando la velocidad interna y el Intel 80486 OverDrive (486SX, 486SX2, 486DX2 o 486DX4) – variantes de los modelos anteriores, diseñados como procesadores de actualización; de los que recuerdo en esta gama de 486, sus velocidades eran desde 25Mhz hasta los 100Mhz, para mi fue muy importante este epoca del 486 porque lo exprimí al máximo con mi PS/1 de IBM.
Luego salió el Procesador Pentium en el año 1993 como versión del 586 que esperábamos, Intel cambio su nomenclatura por problemas con la competencia que era AMD, recuerdo que Milton migro a un Pentium de 75Mhz, y luego a otro de 166Mhz y a otro de 200Mhz, yo tuve que cambiar mi PS/1 por otra PC CLON que me arme, y pude comprar un procesador Pentium MMX de 233Mhz.
Para 1995 salieron los Pentium Pro, y en 1997 los Pentium II, a este último lo vi por medio de otro amigo llamado Xavier que se lo compro; era de 300Mhz, lo raro de este es que era un cartucho negro, totalmente diferente a lo visto anteriormente, eran bastantes caros, por eso en 1998 Intel saco los Intel Celeron y Celeron II, como una gama de procesadores económicos, estos Pentium llagaron hasta los 450Mhz
Para 1999 sale al mercado Intel Pentium III con velocidades en principio de 450Mhz y 500Mhz; para mayo llegaron los de 550Mhz y 600Mhz, yo de estos procesadores no participe, solo me enteraba por las noticias informáticas y revistas como PCWorld, para finales del año Intel saco una versión llamada Coppermine con velocidades de 500Mhz, 533Mhz, 550Mhz, 600Mhz, 650Mhz, 667Mhz, 700Mhz y 733Mhz. En el año 2.000 salieron las versiones de 750Mhz, 800Mhz, 850Mhz, 866Mhz, 933Mhz y 1Ghz si recién en este año hablamos de 1Ghz, entre 1999 y el año 2000; fueron 2 años donde muchos nos quedamos estupefactos con el crecimiento de velocidad tan rápido y vertiginoso.
Para inicio del año 2001, se trata de la última serie de Pentium III, con unas velocidades de 1.13Ghz, 1.2Ghz, 1.26Ghz y 1.4Ghz, hasta aquí puedo citar que yo actualice mi PC CLON con todo y tarjeta madre con procesador AMD Duron de 800Mhz, y lo hice porque los procesadores de Intel eran muy caros, para luego pasarme a un AMD Athlon de 1.6Ghz+; con este último sobreviví por algún tiempo.
En noviembre del año 2000 Intel saca al mercado el procesador Intel Pentium 4 escrito Pentium IV, que estuvieron durante unos años compartiendo mercado con los Pentium III y AMD Athlon y Athlon XP; un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, trabajaba a 1.4 y 1.5 GHz donde se había quedado el Pentium III, posterirmente salieron los de 3.8Ghz llamados Prescott; que es lo más rápido que ha salido en un procesador comercial .
Luego en el 2003 vino en el Procesador Pentium M, este fue originalmente diseñado para su uso en computadoras portátiles venían desde los 1.5Ghz hasta los 1.7Ghz; con el vino mi primera Portátil y era de 1.7Ghz en la marca Xtratech con 512Mb luego la actualice a 1Gb de Ram, luego vino una segunda generación desde los 1.6Ghz hasta los 2.26Ghz.
Para 2005 vinieron los Pentium D que consisten básicamente en dos procesadores Pentium 4 ubicados en una única pieza de silicio, con velocidades desde los 2.66Ghz hasta 3.2Ghz, luego vinieron variantes desde los 2.8Ghz hasta 3.6Ghz, esta última velocidad conocida como la velocidad tope para mí (con excepción de los P4 de 3.8Ghz).
Para 2006 Intel lanza los Intel Pentium Dual-Core que utilizan la tecnología de doble núcleo, fue llamado Pentium Dual-Core, a manera de aprovechar la fama de la marca Pentium; con velocidades desde los 1.3Ghz hasta los 3.06Ghz; se suelen confundir Pentium D con Pentium Dual-Core; si bien ambos procesadores son de doble núcleo, los Pentium D están basados al igual que los Pentium 4.
Par este mismo año se lanza el Intel Core 2, donde la marca Core 2 se refiere a una gama de CPUs comerciales de Intel de 64 bits de doble núcleo, comenzaron con velocidades desde los 1.06Ghz hasta los 3.33Ghz; quiero aclarar que además la marca Core 2 fue introducida el 27 de julio de 2006, abarcando las líneas Solo (un núcleo), Duo (doble núcleo), Quad (quad-core), y Extreme (CPUs de dos o cuatro núcleos para entusiastas, pero bastantes caro), es decir resumiendo tenemos Intel Core 2 Solo/Duo/Quad/Extreme; otro dato importante es que la abreviatura C2 se ha vuelto de uso común, con sus variantes C2D (el presente Core 2 Duo), y C2Q, C2E para referirse a los Core 2 Quad y Core 2 Extreme respectivamente, quiero citar que estos procesadores son los más comunes aquí en Ecuador donde el más usado es el C2D, mi actual PC de escritorio es una C2D de 2.4Ghz una bala, aunque ya se esta quedando caduca.
Después de estos para el 2008 y parte del 2009, se lanzó los Intel Core i3, i5 e i7 que son una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64 con velocidades desde los 1.06Ghz hasta los 2.66Ghz para portátiles; y bastantes caros sobrepasando los $200 el más lento, para PC de escritorios van desde los 2.93Ghz hasta los 3.46Ghz, fabricación en 32 nanómetros, que equivale a un menor consumo y un menor calor generado como principal característica, no cuento con ninguno de estos por sus altos costos.
Lo último es en este año 2010; puedo citar al Intel Core i7 980x que es el nombre del actual y primer procesador de la serie i9 de Intel (aunque todavía tiene de nombre i7 está en la categoría de los i9) fabricado con seis núcleos (12 hilos) con velocidades desde los 3.2Ghz hasta 3.7Ghz donde por fin se pasa la barrera de los 3.6Ghz; bueno hasta aquí llegamos, sé que este articulo ha sido bastante largo y técnico, pero espero que ahora conozcan mejor los procesadores de la empresa Intel,

FUTURO DE LOS MICROPROCESADORES

El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano, para empezar la velocidad se incrementará una medida del 33% con respecto a la generación del anterior. es decir, el mismo procesador usando esta nueva tecnología puede ir un 33% más rápido que el anterior. Para los que no podamos hacer una idea de este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen transistores que componen el procesador. El transistor, como muchos sabemos, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica circula entre dos puntos de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos hablando de millonésimas de segundo, tener en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos, incluso utilizando el mismo procesador. en un futuro cercano además de contar con la arquitectura de 0.25 micras podremos disfrutar de una de 0.07, para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es decir, diez GHz.
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, que actualmente cuenta con más del 90% del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar varias generaciones de maquinas que nos han entretenido y ayudado en el trabajo diario. Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia donde vamos, en lugar de en donde hemos estado. Por ello no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos 15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011, utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000 MHz) contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, permitirá realizar tareas nunca antes pensadas.

domingo, 22 de abril de 2012

MICROPROCESADORES:DEFINICION Y NUEVAS TECNOLOGIAS

DEFINICION

El microprocesador es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele asociar por analogía como el cerebro de un computador. Es un circuito integrado constituido por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.

Es el encargado de ejecutar los programas; desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

NUEVAS TECNOLOGIAS

Covington o Celeron y Mendocino
Son Pentium II económicos. No es más que intentar conseguir ordenadores con configuración de Pentium II con sólo 150.000 ptas (9.999 dólares). Para ello, aparecerán Covington y Mendocino, el primero de ellos, también conocido como Celeron, es un PII 266 Mhz por 15.000 ptas. (ese es el precio final, ahora está disponible por 23.000) y el segundo un PII 300 Mhz por 45.000 ptas. ¿Cómo se obtiene la reducción del coste? Pues, eliminando varios elementos, como la memoria caché. Mendocino limitará la memoria a 128 Kb. y Covington no tendrá nada. Con esto los actuales Pentium MMX tienen los días contados (los Pentium II están pensados para sustituirlos), junto con las placas con zócalos Socket, los SIMMs, la EDO RAM, el BUS ISA...

 

Willamette
Es un procesador de la familia P6 (Pentium Pro y Pentium II), pero incorporará varias características de la familia P7 o Merced. Aparecerá en el cuatro trimestre del 98 y será el último de los procesadores de 0,25 micras.


Merced o P7
es el gran proyecto de Intel, el primer procesador de 64 bits puros (recuerda que los Pentiums actuales tienen el bus de direcciones de 64 bits pero el de datos a 32). Tendrá un ancho de transistor de 0.18 micras y estará basado en la arquitectura IA-64: un juego de instrucciones totalmente nuevo. Intel ya a pagado 700 millones de dólares a Digital para poder usar la tecnología de su procesador Alpha, el cual le había acusado a aquél de copiarle su arquitectura. El paso de 32 a 64 bits supondrá un cambio mucho mayor al de 16 a 32 bits. El sistema de codificación nuevo, que supera al anterior del x86, es el EPIC (Codificación de Instrucciones Explícitamente en Paralelo), que combina tres instrucciones en un único registro de 128 bits, procesable a una mayor velocidad. Otras implementaciones son la arquitectura superescalar, predecodificación y carga especulativa. Intel también asegura que Merced será compatible con todas las aplicaciones de 32 bits existentes, utilizando un decodificador que convertirá las instrucciones x86 en microinstrucciones IA-64.Merced partirá de 600 MHz y llegará hasta 1.000 MHz ó 1 GHz. Tendrá dos versiones: una con una caché L2 dentro de la CPU de 2 ó 4 Mb para ordenadores servidores, y una segunda versión doméstica que tendrá la caché fuera del micro, como los PII actuales. Merced será conectado a la placa base con la ranura Slot 2, y tendrá un bus que funcionará a 100 MHz.Más de 20 empresas, como Microsoft, Bull, Oracle, Compaq y Dell, están desarrollando software para la nueva tecnología. Quizá el primer sistema operativo que explote este procesador sea Summit 3D, compatible UNIX, de 64 bits. También fomentará el desarrollo del llamado "Windows 2000".El lanzamiento de Merced ha sido aplazado hasta finales de 1999/principios de 2000.

 

Slot 2 y PC '98
 Si bien el Pentium II actual utiliza el tipo de conexión llamado "Slot 1", Merced (destinado en principio a ordenadores servidores con más de un procesador) se basará en el concepto "Slot 2" para el acoplamiento en la placa base. Este último será usado en todos los Pentium II de gama alta mayores de 300 MHz. Es un bus de 128 bits a una velocidad de 100 Mhz. Durante un tiempo ambos coexistirán, de echo, habrá dos versiones de Pentium II a 333 MHz: Slot 1 y 2.Se acabaron las tarjetas ISA. Las recomendaciones desarrolladas por Microsoft e Intel y recogidas en la propuesta PC98 proponen la eliminación total de slots para tarjetas ISA en la nueva arquitectura de las placas base. Otra de las "recomendaciones" es que los nuevos PCs no podrán soportar periféricos que se conecten a través de los puertos serie y paralelo, excepto las impresoras. Según las especificaciones, los OEMS tienen hasta enero de 1999 para eliminar las tarjetas módems internas que utilizan solos ISA y las tarjetas de sonido. Otras especificaciones hacen especial hincapié en el tema de los gráficos. Así las tarjetas deberán ser alojadas en buses PCI de 64 bits o bien AGP y se prevé que los ordenadores dedicados al entretenimiento incorporen un sintonizador analógico de TV. El PC' 98 es una revolución total al tradicional ordenador que hasta ahora hemos conocido.

 

Katmai
En concreto, el diseño de estos nuevos chips estará orientado a conseguir mejoras sustanciales en la renderización de gráficos 3D y el reconocimiento de voz. Lo más interesante es que su velocidad mínima será de 500 MHz.La tecnología Katmai era previamente conocida como MMX 2 y esencialmente representa la siguiente fase de la estrategia de informática visual de Intel. De la misma manera que el MMX, Katmai es en realidad una nueva serie de 70 instrucciones incorporadas en los procesadores Intel (frente a las 57 incorporadas por MMX). Los desarrolladores usarán estas instrucciones para crear entornos informáticos más ricos. Hay que tener en cuenta que el lanzamiento de Katmai coincidirá con mejoras en chips gráficos y de la tecnología AGP (Accelerated Graphics Port) de Intel, con lo que las posibilidades son grandes.Para animar a la aceptación de la nueva tecnología, Intel sacará al mercado programas y aplicaciones que usen la tecnología, mucho antes de que se ponga a la venta el chip. Por su parte, ciertas herramientas de desarrollo para Katmai ya fueron distribuidas en 1997.Uno de los campos en los que se espera más desarrollo y más pronto, es precisamente en el de los juegos, por lo que este mercado se introducirá cada vez mas en nuestras casas.La introducción de Katmai se producirá previamente al lanzamiento del chip Merced de Intel, su nueva generación de chips de 64 bits. La nueva tecnología aparecerá exclusivamente a partir de 1999 en procesadores Pentium II. Precisamente, sobre esas fechas, uno de los competidores de Intel, AMD, lanzará también sus nuevos procesadores K6 3D (Chompers) y, seguidamente, su esperado y secreto K7.

AMD: K6, 3D y K7
AMD es una empresa fabricante de microprocesadores y la principal competencia de INTEL. Sus nuevos procesadores ofrecerán características no incluidas en los Pentium's. Ya han sido presentados el AMD K6 a 266 MHz y 300 MHz, con la tecnología de 0,25 micras y 68 milímetros cuadrados de tamaño. El K6 3D a 300 Mhz saldrá en el tercer trimestre del 98. Incluirá 24 instrucciones MMX nuevas aparte de las ya existentes, bus de 100 MHz y AGP. Está montado unas las placas con el socket 7 utilizado hasta ahora en los Pentium's tradicionales llamada Super 7. Tendrá un rendimiento mayor al Pentium II, y permitirá reproducir MPEG-2 y sonido AC-3 gracias a DirectX 6.0 sin hardware adicional.
k6

3D
 K7