CATEDRÁTICO:
David Arturo Funez
NOMBRE DEL ALUMNO:
Vivian López
Luis Espinal
Anthony Ayestas
ASIGNATURA:
Informática
CURSO:
II BTP
TEMA:
Sistena De Enumeracion
Sistema Binarios
Codigos Acsii
FECHA DE ENTREGO:
Viernes 19 de Junio
de 2015
Introducción
Cuando los hombres empezaron a contar usaron los
dedos, guijarros, marcas en bastones, nudos en una cuerda y algunas otras
formas para ir pasando de un número al siguiente. A medida que la cantidad
crece se hace necesario un sistema de representación más práctico.
En diferentes partes del mundo y en distintas
épocas se llegó a la misma solución, cuando se alcanza un determinado número se
hace una marca distinta que los representa a todos ellos. Este
número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar
por segunda vez el número anterior y se añade otra marca de la segunda clase . Cuando se alcanza un número determinado (que
puede ser diferente del anterior constituyendo la base auxiliar) de estas
unidades de segundo orden, las decenas en caso de base 10, se añade una de
tercer orden y así sucesivamente.
Desde hace 5000 años la gran mayoría de las
civilizaciones han contado en unidades, decenas, centenas, millares etc. es
decir de la misma forma que seguimos haciéndolo hoy. Sin embargo la forma de
escribir los números ha sido muy diversa y muchos pueblos han visto impedido su
avance científico por no disponer de un sistema eficaz que permitiese el cálculo.
El sistema actual fue inventado por los indios y
transmitido a Europa por los árabes;. Del origen indio del sistema hay pruebas documentales más que suficientes, entre ellas la
opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo
sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo del cero, lo que permite un sistema en
el que sólo diez simbolos puedan representar cualquier número por grande que
sea y simplificar la forma de efectuar las operaciones.
Sistema de numeración
Un sistema
de numeración es un conjunto de símbolos y reglas de generación que permiten construir
todos los números válidos en el sistema.
Cualquier sistema consta fundamentalmente de una
serie de elementos que lo conforman, una serie de reglas que permite establecer
operaciones y relaciones entre tales elementos. Por ello, puede decirse que un
sistema de numeración es el conjunto de elementos (símbolos o números), operaciones
y relaciones que por intermedio de reglas propias permite establecer el papel
de tales relaciones y operaciones.
Un sistema de numeración puede representarse como

Estas reglas son diferentes para cada sistema de
numeración considerado, pero una regla común a todos es que para construir
números válidos en un sistema de numeración determinado sólo se pueden utilizar
los símbolos permitidos en ese sistema.
Los hombres supieron asociar tempranamente a una
colección de objetos un grupo de signos o de cosas: trazos marcados en la madera, en un hueso o en la arena, montones de piedras,
gestos con la mano o con la cabeza, etc. Así, los pastores sumerios llevaban la
cuenta de los nacimientos, pérdidas, compras y ventas de sus ovejas representando cada animal del rebaño
mediante un cono de arcilla (calculi) colocado en un a envoltura de arcilla. La
economía, más compleja, de las primeras aglomeraciones
urbanas de la Baja Mesopotamia eligió un sistema más elaborado: se imprimieron
sobre la envoltura de arcilla signos que representaban los mismos signos que
los calculi. Estos últimos, que ya no tenían razón de ser, fueron poco a poco
suprimidos, y las envolturas reemplazadas por las primeras tablillas,
numerales. Por tanto, las primeras numeraciones escritas aparecieron al mismo tiempo que las primeras formas de escritura, en Mesopotamia hacia 3300 a. J. C. y en Egipto hacia 3200 a. J. C.
Clasificación de los sistemas
de numeración
=> S. Numeración No-posicionales.
=> S. Numeración Semi-posicionales.
=> S. Numeración posicionales.
En los sistemas no-posicionales los dígitos tienen
el valor del símbolo utilizado, que no depende de la
posición (columna) que ocupan en el número.
2.2 Sistema de numeración
Semi-posicionales.
Sistema de los números romanos no es estrictamente
posicional. Por esto, es muy complejo diseñar algoritmos de uso general (por ejemplo, para sumar, restar,
multiplicar o dividir). Como ejemplo, en el número romano XCIX (99 decimal) los
numerales X (10 decimal) del inicio y del fin de la cifra equivalen siempre al
mismo valor, sin importar su posición dentro de la cifra.
2.3 Sistema de numeración
Posicionales.
En los sistemas de numeración ponderados o
posicionales el valor de un dígito depende tanto del símbolo utilizado, como de
la posición que ése símbolo ocupa en el número.
El número de símbolos permitidos en un sistema de
numeración posicional se conoce como base
del sistema de numeración. Si un sistema de numeración posicional tiene
base b significa que disponemos
de b símbolos diferentes para
escribir los números, y que b unidades
forman una unidad de orden superior.
cuando contamos hasta 99, hemos agotado los símbolos disponibles para
las dos columnas; por tanto si contamos (sumamos) una unidad más, debemos poner
a cero la columna de la derecha y sumar 1 a la de la izquierda (decenas). Pero
la columna de la izquierda ya ha
agotado los símbolos disponibles, así que la ponemos a cero, y sumamos 1
a la siguiente columna (centena). Como resultado nos queda que 99+1=100.
Como vemos, un sistema de numeración posicional se
comporta como un cuentakilómetros: va sumando 1 a la columna de la derecha y,
cuando la rueda de esa columna ha dado una vuelta (se agotan los símbolos), se pone
a cero y se añade una unidad a la siguiente columna de la izquierda.
Pero estamos tan habituados a contar usando el
sistema decimal que no somos conscientes de este comportamiento, y damos por hecho que 99+1=100, sin pararnos a
pensar en el significado que encierra esa expresión.
El Sistema Binario.
Es el Sistema de numeración que utiliza
internamente el hardware de las computadoras actuales. Se basa en la representación de
cantidades utilizando los dígitos 1 y 0. Por lo tanto, es base es 2 (Numero de
dígitos del sistema).
Cada dígito de un número representado en este
sistema se denomina Bit
(Contracción de Binary Digit).
Suma Binaria
Es semejante a la suma en el sistema decimal, con
la diferencia de que se manejan sólo 2 dígitos (0 y 1), y que cuando el
resultado excede de los símbolos utilizados se agrega el exceso (acarreo) a la
suma parcial siguiente hacia la izquierda. Las tablas de sumar son:

Historia y evolución del
sistema de cálculo binario
Tal y como se comenta en distintos artículos de
Rosaspage dedicados al mundo de la informática, el sistema que actualmente
utilizan los ordenadores para "pensar" es el binario.
Ello es posible debido a que un ordenador, o mejor dicho los chips que lo integran, son transistores miniaturizados que solamente comprenden dos situaciones: Encendido y apagado, cuyos estados pueden traducirse en los símbolos 0 (apagado) y 1 (encendido).
Cuando usted pulsa una tecla de su ordenador, siendo esta la mínima información que puede dar a su máquina, los programas en memoria literalmente traducen esa letra en una secuencia de ceros y unos, los cuales sí pueden ser comprendidos por el ordenador.
Pero no se apure. Este articulo no está centrado en especificar como el ordenador descompone una letra en su homologo binario ni como se las arregla esta máquina para calcular en binario. De hecho, la única pretensión de este texto es relatar la evolución de este sistema de cálculo, el cual propició la aparición de las computadoras, discos compactos, TDT y en definitiva cualquier aparato electrónico que utilice el sistema digital para realizar su tarea.
Para encontrar los orígenes de nuestra historia deberemos remontarnos muchos años en el pasado, concretamente unos trescientos años antes del nacimiento de Jesucristo cuando un matemático hindú llamado Pingala describió por primera vez un sistema binario. A su vez ello coincidió con la popularización del concepto del número cero.
Ello es posible debido a que un ordenador, o mejor dicho los chips que lo integran, son transistores miniaturizados que solamente comprenden dos situaciones: Encendido y apagado, cuyos estados pueden traducirse en los símbolos 0 (apagado) y 1 (encendido).
Cuando usted pulsa una tecla de su ordenador, siendo esta la mínima información que puede dar a su máquina, los programas en memoria literalmente traducen esa letra en una secuencia de ceros y unos, los cuales sí pueden ser comprendidos por el ordenador.
Pero no se apure. Este articulo no está centrado en especificar como el ordenador descompone una letra en su homologo binario ni como se las arregla esta máquina para calcular en binario. De hecho, la única pretensión de este texto es relatar la evolución de este sistema de cálculo, el cual propició la aparición de las computadoras, discos compactos, TDT y en definitiva cualquier aparato electrónico que utilice el sistema digital para realizar su tarea.
Para encontrar los orígenes de nuestra historia deberemos remontarnos muchos años en el pasado, concretamente unos trescientos años antes del nacimiento de Jesucristo cuando un matemático hindú llamado Pingala describió por primera vez un sistema binario. A su vez ello coincidió con la popularización del concepto del número cero.
Ya en 1605 el considerado padre del empirismo
Francis Bacon (1561-1626) describió un sistema gracias al cual las letras del
alfabeto podían reducirse a secuencias de dígitos binarios. Todavía sin
abandonar el siglo XVII, por su parte el alemán Gottfried Leibniz documentó en
su totalidad el sistema binario dentro de su obra "Explication de
l´Arithmétique Binaire" (Explicación de la aritmética binaria), en la cual
ya se mencionan el cero y el uno como símbolos básicos.
Tendrían que pasar todavía un par de siglos hasta que se produjese otro hecho significativo en esta historia, pues en el año 1856 el británico George Boole (1815-1864) desarrolló el sistema de álgebra que llevó su mismo nombre, la cual tuvo la particularidad de ser el punto de partida para el desarrollo del sistema binario actual, resultando básica para el desarrollo de los circuitos electrónicos digitales.
Llegados a este punto, es justo hacer notar al lector/a que antes de producirse cualquier invento importante en la historia humana, como en este caso la aparición de la informática, siglos o milenios antes ya existieron personas que sentaron las bases para que tal invento tenga lugar. Si alguien hubiese sido capaz de predecir el futuro y hacer entender a Pingala que sus enseñanzas serian la base principal de la informática, muy probablemente no se lo hubiera creído, sucediendo lo mismo en Leibniz y Boole los cuales quien sabe si algún día soñaron en una máquina programable gracias a un sistema similar al que propusieron.
Volviendo al relato de la evolución del sistema digital, ya en el siglo XX todavía se seguía teorizando sobre aplicaciones concretas del sistema digital, sobretodo del álgebra de Boole. Concretamente en 1937 el joven ingeniero electrónico y matemático Claude Elwood Shannon (1916-2001) publicó su tesis doctoral "Un análisis simbólico de circuitos conmutadores y relés", la cual prácticamente ella sola fundo el diseño práctico de los circuitos digitales. Ello significó una auténtica revolución que permitiría el desarrollo de la informática actual.
Ese mismo año, en la sede de Laboratorios Bell el estadounidense George Stibitz (1904-1995) construyó una computadora basada en relés la cual ya usaba el sistema binario para realizar cálculos. Considerando la importancia de esos estudios, los laboratorios iniciaron a partir de entonces un completo programa de investigación con Stibitz al frente.
Ello llevó a que en el año 1940 los laboratorios presentaran una calculadora capaz de realizar cálculos con números completos. Curiosamente esta máquina también se convirtió en la primera capaz de enviar información a otra mediante línea telefónica.
Tendrían que pasar todavía un par de siglos hasta que se produjese otro hecho significativo en esta historia, pues en el año 1856 el británico George Boole (1815-1864) desarrolló el sistema de álgebra que llevó su mismo nombre, la cual tuvo la particularidad de ser el punto de partida para el desarrollo del sistema binario actual, resultando básica para el desarrollo de los circuitos electrónicos digitales.
Llegados a este punto, es justo hacer notar al lector/a que antes de producirse cualquier invento importante en la historia humana, como en este caso la aparición de la informática, siglos o milenios antes ya existieron personas que sentaron las bases para que tal invento tenga lugar. Si alguien hubiese sido capaz de predecir el futuro y hacer entender a Pingala que sus enseñanzas serian la base principal de la informática, muy probablemente no se lo hubiera creído, sucediendo lo mismo en Leibniz y Boole los cuales quien sabe si algún día soñaron en una máquina programable gracias a un sistema similar al que propusieron.
Volviendo al relato de la evolución del sistema digital, ya en el siglo XX todavía se seguía teorizando sobre aplicaciones concretas del sistema digital, sobretodo del álgebra de Boole. Concretamente en 1937 el joven ingeniero electrónico y matemático Claude Elwood Shannon (1916-2001) publicó su tesis doctoral "Un análisis simbólico de circuitos conmutadores y relés", la cual prácticamente ella sola fundo el diseño práctico de los circuitos digitales. Ello significó una auténtica revolución que permitiría el desarrollo de la informática actual.
Ese mismo año, en la sede de Laboratorios Bell el estadounidense George Stibitz (1904-1995) construyó una computadora basada en relés la cual ya usaba el sistema binario para realizar cálculos. Considerando la importancia de esos estudios, los laboratorios iniciaron a partir de entonces un completo programa de investigación con Stibitz al frente.
Ello llevó a que en el año 1940 los laboratorios presentaran una calculadora capaz de realizar cálculos con números completos. Curiosamente esta máquina también se convirtió en la primera capaz de enviar información a otra mediante línea telefónica.
ASCII
ASCII (acrónimo inglés de American
Standard Code for Information
Interchange — Código Estándar Estadounidense para el
Intercambio de Información), pronunciado generalmente [áski] o [ásci],
es un código de
caracteres basado
en el alfabeto latino, tal como se usa en inglés
moderno. Fue creado en 1963 por el Comité Estadounidense de
Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de
Estándares Nacionales, o ANSI) como
una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se
incluyeron las minúsculas, y se redefinieron algunos códigos de control para
formar el código conocido como US-ASCII.
El código ASCII utiliza 7 bits para representar los
caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la
transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1, que es una extensión que utiliza 8 bits para
proporcionar caracteres adicionales usados en idiomas distintos al inglés, como
el español.
ASCII fue publicado como estándar por primera vez
en 1967 y fue actualizado por última vez en 1986. En la actualidad define
códigos para 32 caracteres no imprimibles, de los cuales la mayoría son caracteres de control que tienen efecto sobre cómo se
procesa el texto, más otros 95 caracteres imprimibles que les siguen en la
numeración (empezando por el carácter espacio).
Casi todos los sistemas informáticos actuales
utilizan el código ASCII o una extensión compatible para representar textos y
para el control de dispositivos que manejan texto como el teclado. No deben
confundirse los códigos ALT+número de teclado con los códigos ASCII.
Historia del código ASCII
El código ASCII se desarrolló en el ámbito de
la telegrafíay se usó por primera vez comercialmente como un código de
teleimpresión impulsado por los servicios de datos deBell. Bell había planeado
usar un código de seis bits, derivado de Fieldata, que añadía puntuación y
letras minúsculas al más antiguo código de teleimpresiónBaudot, pero se les
convenció para que se unieran al subcomité de la Agencia de Estándares
Estadounidense (ASA), que había empezado a desarrollar el código ASCII. Baudot
ayudó en la automatización del envío y recepción de mensajes telegráficos, y
tomó muchas características del código Morse; sin embargo, a diferencia
del código Morse, Baudot usó códigos de longitud constante. Comparado con los
primeros códigos telegráficos, el código propuesto por Bell y ASA resultó en
una reorganización más conveniente para ordenar listas (especialmente porque
estaba ordenado alfabéticamente) y añadió características como la ‘secuencia de
escape’. La Agencia de Estándares Estadounidense (ASA), que se convertiría más
tarde en el Instituto Nacional Estadounidense de Estándares (ANSI), publicó por
primera vez el código ASCII en 1963. El ASCII publicado en 1963 tenía una
flecha apuntando hacia arriba (↑) en lugar del circunflejo (^) y una flecha
apuntando hacia la izquierda en lugar del guión bajo (_). La versión de 1967
añadió las letras minúsculas, cambió los nombres de algunos códigos de control
y cambió de lugar los dos códigos de control ACK y ESC de la zona de letras
minúsculas a la zona de códigos de control. ASCII fue actualizado en
consecuencia y publicado como ANSI X3.4-1968, ANSI X3.4-1977, y finalmente ANSI
X3.4-1986. Otros órganos de estandarización han publicado códigos de carácteres
que son idénticos a ASCII. Estos códigos de carácteres reciben a menudo el
nombre de ASCII, a pesar de que ASCII se define estrictamente solamente por los
estándares ASA/ANSI:
- La
Asociación Europea de Fabricantes de Ordenadores (ECMA) publicó ediciones
de su clón de ASCII, ECMA-6 en 1965, 1967, 1970, 1973, 1983, y 1991. La
edición de 1991 es idéntica a ANSI X3.4-1986.4
- La
Organización Internacional de Estandarización (ISO) publicó su versión,
ISO 646 (más tarde ISO/IEC 646) en 1967, 1972, 1983 y 1991. En particular,
ISO 646:1972 estableció un conjunto de versiones específicas para cada
país donde los carácteres de puntuación fueron reemplazados con carácteres
no ingleses. ISO/IEC 646:1991 La International Reference Version es la
misma que en el ANSI X3.4-1986.
- La
Unión Internacional de Telecomunicaciones (ITU) publicó su versión de ANSI
X3.4-1986, Recomendación ITU T.50, en 1992. A principios de la década
de 1970 publicó una versión como Recomendación CCITT V.3.
- DIN publicó
una versión de ASCII como el estándar DIN 66003 en 1974.
- El
Grupo de Trabajo en Ingeniería de Internet (IETF) publicó una versión en
1969 como RFC 20, y estableció la versión estándar para Internet,
basada en ANSI X3.4-1986, con la publicación de RFC 1345 en
1992.
- La
versión de IBM de ANSI X3.4-1986 se publicó en la literatura
técnica de IBM.
El código ASCII también está incluido en su
probable relevo, Unicode, constituyendo los primeros 128 carácteres (o los
‘más bajos’).
TABLA ASCII

No hay comentarios:
Publicar un comentario