jueves, 18 de junio de 2015

Sistema De Enumeracion



INSTITUTO TECNICO DEL VALLE

             
                                                         CATEDRÁTICO:
                                                          David Arturo Funez
                                                    NOMBRE DEL ALUMNO:
                                                             Vivian López
                                                              Luis Espinal
                                                          Anthony  Ayestas
                                                             ASIGNATURA:
                                                               Informática
                                                                  CURSO:
                                                                    II BTP
                                                                    TEMA:
                                                        Sistena De Enumeracion
                                                             Sistema Binarios
                                                               Codigos Acsii
                                                       FECHA DE ENTREGO:
                                                    Viernes 19 de Junio de 2015









Introducción
Cuando los hombres empezaron a contar usaron los dedos, guijarros, marcas en bastones, nudos en una cuerda y algunas otras formas para ir pasando de un número al siguiente. A medida que la cantidad crece se hace necesario un sistema de representación más práctico.
En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuando se alcanza un determinado número se hace una marca distinta que los representa a todos ellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar por segunda vez el número anterior y se añade otra marca de la segunda clase . Cuando se alcanza un número determinado (que puede ser diferente del anterior constituyendo la base auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, se añade una de tercer orden y así sucesivamente.
Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades, decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy. Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos han visto impedido su avance científico por no disponer de un sistema eficaz que permitiese el cálculo.
El sistema actual fue inventado por los indios y transmitido a Europa por los árabes;. Del origen indio del sistema hay pruebas documentales más que suficientes, entre ellas la opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo del cero, lo que permite un sistema en el que sólo diez simbolos puedan representar cualquier número por grande que sea y simplificar la forma de efectuar las operaciones.







Sistema de numeración
Un sistema de numeración es un conjunto de símbolos y reglas de generación que permiten construir todos los números válidos en el sistema.
Cualquier sistema consta fundamentalmente de una serie de elementos que lo conforman, una serie de reglas que permite establecer operaciones y relaciones entre tales elementos. Por ello, puede decirse que un sistema de numeración es el conjunto de elementos (símbolos o números), operaciones y relaciones que por intermedio de reglas propias permite establecer el papel de tales relaciones y operaciones.
Un sistema de numeración puede representarse como
Descripción: Monografias.com
Estas reglas son diferentes para cada sistema de numeración considerado, pero una regla común a todos es que para construir números válidos en un sistema de numeración determinado sólo se pueden utilizar los símbolos permitidos en ese sistema.
Los hombres supieron asociar tempranamente a una colección de objetos un grupo de signos o de cosas: trazos marcados en la madera, en un hueso o en la arena, montones de piedras, gestos con la mano o con la cabeza, etc. Así, los pastores sumerios llevaban la cuenta de los nacimientos, pérdidas, compras y ventas de sus ovejas representando cada animal del rebaño mediante un cono de arcilla (calculi) colocado en un a envoltura de arcilla. La economía, más compleja, de las primeras aglomeraciones urbanas de la Baja Mesopotamia eligió un sistema más elaborado: se imprimieron sobre la envoltura de arcilla signos que representaban los mismos signos que los calculi. Estos últimos, que ya no tenían razón de ser, fueron poco a poco suprimidos, y las envolturas reemplazadas por las primeras tablillas, numerales. Por tanto, las primeras numeraciones escritas aparecieron al mismo tiempo que las primeras formas de escritura, en Mesopotamia hacia 3300 a. J. C. y en Egipto hacia 3200 a. J. C.


Clasificación de los sistemas de numeración
Los sistemas de numeración pueden clasificarse en tres grupos que son:
=> S. Numeración No-posicionales.
=> S. Numeración Semi-posicionales.
=> S. Numeración posicionales.
En los sistemas no-posicionales los dígitos tienen el valor del símbolo utilizado, que no depende de la posición (columna) que ocupan en el número.
2.2 Sistema de numeración Semi-posicionales.
Sistema de los números romanos no es estrictamente posicional. Por esto, es muy complejo diseñar algoritmos de uso general (por ejemplo, para sumar, restar, multiplicar o dividir). Como ejemplo, en el número romano XCIX (99 decimal) los numerales X (10 decimal) del inicio y del fin de la cifra equivalen siempre al mismo valor, sin importar su posición dentro de la cifra.
2.3 Sistema de numeración Posicionales.
En los sistemas de numeración ponderados o posicionales el valor de un dígito depende tanto del símbolo utilizado, como de la posición que ése símbolo ocupa en el número.
El número de símbolos permitidos en un sistema de numeración posicional se conoce como base del sistema de numeración. Si un sistema de numeración posicional tiene base b significa que disponemos de b símbolos diferentes para escribir los números, y que b unidades forman una unidad de orden superior.
cuando contamos hasta 99, hemos agotado los símbolos disponibles para las dos columnas; por tanto si contamos (sumamos) una unidad más, debemos poner a cero la columna de la derecha y sumar 1 a la de la izquierda (decenas). Pero la columna de la izquierda ya ha agotado los símbolos disponibles, así que la ponemos a cero, y sumamos 1 a la siguiente columna (centena). Como resultado nos queda que 99+1=100.
Como vemos, un sistema de numeración posicional se comporta como un cuentakilómetros: va sumando 1 a la columna de la derecha y, cuando la rueda de esa columna ha dado una vuelta (se agotan los símbolos), se pone a cero y se añade una unidad a la siguiente columna de la izquierda.
Pero estamos tan habituados a contar usando el sistema decimal que no somos conscientes de este comportamiento, y damos por hecho que 99+1=100, sin pararnos a pensar en el significado que encierra esa expresión.
El Sistema Binario.
Es el Sistema de numeración que utiliza internamente el hardware de las computadoras actuales. Se basa en la representación de cantidades utilizando los dígitos 1 y 0. Por lo tanto, es base es 2 (Numero de dígitos del sistema).
Cada dígito de un número representado en este sistema se denomina Bit (Contracción de Binary Digit).
Suma Binaria
Es semejante a la suma en el sistema decimal, con la diferencia de que se manejan sólo 2 dígitos (0 y 1), y que cuando el resultado excede de los símbolos utilizados se agrega el exceso (acarreo) a la suma parcial siguiente hacia la izquierda. Las tablas de sumar son:
Descripción: http://www.monografias.com/trabajos28/sistemas-informatica/sis1.jpg

Historia y evolución del sistema de cálculo binario
Tal y como se comenta en distintos artículos de Rosaspage dedicados al mundo de la informática, el sistema que actualmente utilizan los ordenadores para "pensar" es el binario.

Ello es posible debido a que un ordenador, o mejor dicho los chips que lo integran, son transistores miniaturizados que solamente comprenden dos situaciones: Encendido y apagado, cuyos estados pueden traducirse en los símbolos 0 (apagado) y 1 (encendido).

Cuando usted pulsa una tecla de su ordenador, siendo esta la mínima información que puede dar a su máquina, los programas en memoria literalmente traducen esa letra en una secuencia de ceros y unos, los cuales sí pueden ser comprendidos por el ordenador.

Pero no se apure. Este articulo no está centrado en especificar como el ordenador descompone una letra en su homologo binario ni como se las arregla esta máquina para calcular en binario. De hecho, la única pretensión de este texto es relatar la evolución de este sistema de cálculo, el cual propició la aparición de las computadoras, discos compactos, TDT y en definitiva cualquier aparato electrónico que utilice el sistema digital para realizar su tarea.

Para encontrar los orígenes de nuestra historia deberemos remontarnos muchos años en el pasado, concretamente unos trescientos años antes del nacimiento de Jesucristo cuando un matemático hindú llamado Pingala describió por primera vez un sistema binario. A su vez ello coincidió con la popularización del concepto del número cero.



Ya en 1605 el considerado padre del empirismo Francis Bacon (1561-1626) describió un sistema gracias al cual las letras del alfabeto podían reducirse a secuencias de dígitos binarios. Todavía sin abandonar el siglo XVII, por su parte el alemán Gottfried Leibniz documentó en su totalidad el sistema binario dentro de su obra "Explication de l´Arithmétique Binaire" (Explicación de la aritmética binaria), en la cual ya se mencionan el cero y el uno como símbolos básicos.

Tendrían que pasar todavía un par de siglos hasta que se produjese otro hecho significativo en esta historia, pues en el año 1856 el británico George Boole (1815-1864) desarrolló el sistema de álgebra que llevó su mismo nombre, la cual tuvo la particularidad de ser el punto de partida para el desarrollo del sistema binario actual, resultando básica para el desarrollo de los circuitos electrónicos digitales.

Llegados a este punto, es justo hacer notar al lector/a que antes de producirse cualquier invento importante en la historia humana, como en este caso la aparición de la informática, siglos o milenios antes ya existieron personas que sentaron las bases para que tal invento tenga lugar. Si alguien hubiese sido capaz de predecir el futuro y hacer entender a Pingala que sus enseñanzas serian la base principal de la informática, muy probablemente no se lo hubiera creído, sucediendo lo mismo en Leibniz y Boole los cuales quien sabe si algún día soñaron en una máquina programable gracias a un sistema similar al que propusieron.

Volviendo al relato de la evolución del sistema digital, ya en el siglo XX todavía se seguía teorizando sobre aplicaciones concretas del sistema digital, sobretodo del álgebra de Boole. Concretamente en 1937 el joven ingeniero electrónico y matemático Claude Elwood Shannon (1916-2001) publicó su tesis doctoral "Un análisis simbólico de circuitos conmutadores y relés", la cual prácticamente ella sola fundo el diseño práctico de los circuitos digitales. Ello significó una auténtica revolución que permitiría el desarrollo de la informática actual.

Ese mismo año, en la sede de Laboratorios Bell el estadounidense George Stibitz (1904-1995) construyó una computadora basada en relés la cual ya usaba el sistema binario para realizar cálculos. Considerando la importancia de esos estudios, los laboratorios iniciaron a partir de entonces un completo programa de investigación con Stibitz al frente.

Ello llevó a que en el año 1940 los laboratorios presentaran una calculadora capaz de realizar cálculos con números completos. Curiosamente esta máquina también se convirtió en la primera capaz de enviar información a otra mediante línea telefónica.



ASCII
ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información), pronunciado generalmente [áski] o [ásci], es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1, que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 32 caracteres no imprimibles, de los cuales la mayoría son caracteres de control que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio).
Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto como el teclado. No deben confundirse los códigos ALT+número de teclado con los códigos ASCII.







Historia del código ASCII
El código ASCII se desarrolló en el ámbito de la telegrafíay se usó por primera vez comercialmente como un código de teleimpresión impulsado por los servicios de datos deBell. Bell había planeado usar un código de seis bits, derivado de Fieldata, que añadía puntuación y letras minúsculas al más antiguo código de teleimpresiónBaudot, pero se les convenció para que se unieran al subcomité de la Agencia de Estándares Estadounidense (ASA), que había empezado a desarrollar el código ASCII. Baudot ayudó en la automatización del envío y recepción de mensajes telegráficos, y tomó muchas características del código Morse; sin embargo, a diferencia del código Morse, Baudot usó códigos de longitud constante. Comparado con los primeros códigos telegráficos, el código propuesto por Bell y ASA resultó en una reorganización más conveniente para ordenar listas (especialmente porque estaba ordenado alfabéticamente) y añadió características como la ‘secuencia de escape’. La Agencia de Estándares Estadounidense (ASA), que se convertiría más tarde en el Instituto Nacional Estadounidense de Estándares (ANSI), publicó por primera vez el código ASCII en 1963. El ASCII publicado en 1963 tenía una flecha apuntando hacia arriba (↑) en lugar del circunflejo (^) y una flecha apuntando hacia la izquierda en lugar del guión bajo (_). La versión de 1967 añadió las letras minúsculas, cambió los nombres de algunos códigos de control y cambió de lugar los dos códigos de control ACK y ESC de la zona de letras minúsculas a la zona de códigos de control. ASCII fue actualizado en consecuencia y publicado como ANSI X3.4-1968, ANSI X3.4-1977, y finalmente ANSI X3.4-1986. Otros órganos de estandarización han publicado códigos de carácteres que son idénticos a ASCII. Estos códigos de carácteres reciben a menudo el nombre de ASCII, a pesar de que ASCII se define estrictamente solamente por los estándares ASA/ANSI:
  • La Asociación Europea de Fabricantes de Ordenadores (ECMA) publicó ediciones de su clón de ASCII, ECMA-6 en 1965, 1967, 1970, 1973, 1983, y 1991. La edición de 1991 es idéntica a ANSI X3.4-1986.4
  • La Organización Internacional de Estandarización (ISO) publicó su versión, ISO 646 (más tarde ISO/IEC 646) en 1967, 1972, 1983 y 1991. En particular, ISO 646:1972 estableció un conjunto de versiones específicas para cada país donde los carácteres de puntuación fueron reemplazados con carácteres no ingleses. ISO/IEC 646:1991 La International Reference Version es la misma que en el ANSI X3.4-1986.
  • La Unión Internacional de Telecomunicaciones (ITU) publicó su versión de ANSI X3.4-1986, Recomendación ITU T.50, en 1992. A principios de la década de 1970 publicó una versión como Recomendación CCITT V.3.
  • DIN publicó una versión de ASCII como el estándar DIN 66003 en 1974.
  • El Grupo de Trabajo en Ingeniería de Internet (IETF) publicó una versión en 1969 como RFC 20, y estableció la versión estándar para Internet, basada en ANSI X3.4-1986, con la publicación de RFC 1345 en 1992.
  • La versión de IBM de ANSI X3.4-1986 se publicó en la literatura técnica de IBM.
El código ASCII también está incluido en su probable relevo, Unicode, constituyendo los primeros 128 carácteres (o los ‘más bajos’).
TABLA ASCII
 







No hay comentarios:

Publicar un comentario