viernes, 21 de noviembre de 2008

INTRODUCCION

Este blog esta hecho conforme a lo aprendido a la asignatura deherramientas computacionales del primer semetre,contiene los temas mas importantes del semestre, este blog ayudara ala comprencion de lo que es la computacion, los distintos sistemas operativos, los distintos tipos de lenguajes, los tipos de comandos, las partes de la computadora, entre otros temas de suma importancia.

jueves, 20 de noviembre de 2008

HERRAMIENTAS DE COMPUTACION

HERRAMIENTAS DE COMPUTACION:
Definiciones y explicación breve de lo que utiliza nuestra computadora (características de un monitor, concepto de software, concepto de lenguaje, concepto de programa, que es un virus, características y tipos de virus y antivirus, características de las tarjetas madres, tarjetas de video y sonido o audio)
Un monitor donde se muestra información acerca de la computadora. En el monitor o pantalla podemos observar el porcentaje de utilizacion del CPU (Unidad de Procesamiento Central), numero de discos duros, unidades de CD y unidades de discos flexibles, asi como observar los procesos que se estan ejecutando y los archivos a los que se puede tener .
Internet se ha convertido en una importante herramienta de negocios. Puede utilizarse a nivel básico, para enviar y recibir correos electrónicos y para investigar, y a un nivel más amplio, puede utilizarse como canal de venta de productos y servicios.
Para tener acceso a Internet, necesita un explorador. El explorador es un software. Los dos principales exploradores del mercado son Microsoft Internet Explorer y Netscape Navigator.

BIT, BYTE, NUMEROS BINARIOS

BIT:

Un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es la unidad más pequeña de información que utiliza un ordenador. Son necesarios 8 bits para crear un byte.
La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.
El funcionamiento es el siguiente: El circuito electrónico en los ordenadores detecta la diferencia entre dos estados (corriente alta y corriente baja) y representa esos dos estados como uno de dos números, 1 o 0. Estos básicos, alta/baja, ambos/o, si/no unidades de información se llaman bits.
El término bit deriva de la frase dígito binario (en inglés binary digit).

BYTE:
Un byte es la unidad fundamental de datos en los ordenadores personales, un byte son ocho bits contiguos. El byte es también la unidad de medida básica para memoria, almacenando el equivalente a un carácter.
La arquitectura de ordenadores se basa sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos).
Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte, abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto que derivan de una base decimal de 10 números).
NUMEROS BINARIOS:
Internamente, la máquina computadora representa los valores numéricos mediante grupos de bits. agrupados en bytes. Por ejemplo, el número 3 se representa mediante un byte que tiene "activos" los bits primero y segundo (contando desde la derecha); 00000011. Esta sería la forma de representación del número 3 en un sistema numérico de base 2, también conocido como BINARIO. El sistema que utilizamos normalmente es un sistema DECIMAL o de base 10. En un sistema DECIMAL, contamos desde el 0 hasta el 9 antes de añadir un nuevo dígito. El número 22 en un sistema decimal significa que tenemos dos conjuntos de 10s y 2 conjuntos de 1s.
En un sistema BINARIO sólo pueden haber dos valores para cada dígito: ya sea un 0=DESACTIVADO ó un 1=ACTIVADO. Para representar el número 22 en notación BINARIA lo haríamos como 00010110

CODIGO ASCII


CODIGO ASCII:


La memoria de un ordenador guarda toda la información en formato digital. No hay forma de almacenar caracteres directamente. Cada uno de los caracteres tiene un código digital equivalente. Esto se denomina código ASCII (American Standard Code for Information Interchange). El código ASCII básico representaba caracteres utilizando 7 bits (para 128 caracteres posibles, enumerados del 0 al 127).
Los códigos de 0 al 31 no se utilizan para caracteres. Éstos se denominan caracteres de control ya que se utilizan para acciones como:
Retorno de carro (CR)
Timbre (BEL)
Los códigos 65 al 90 representan las letras mayúsculas.
Los códigos 97 al 122 representan las letras minúsculas (Si cambiamos el 6º bit, se pasa de mayúscula a minúscula; esto equivale a agregar 32 al código ASCII en base decimal).

ENTORNOS GRAFICOS

ENTORNOS GRAFICOS:

Contrariamente a algunas soluciones propietarias (Windows y Mac), GNU/Linux ofrece de manera nativa la posibilidad de elegir el escritorio de trabajo. De este modo tenemos la posibilidad de elegir entre un “simple” administrador de ventanas y un entorno gráfico. El primero es más ligero y menos exigente en memoria viva. El entorno gráfico utiliza un administrador de ventanas y diferentes tipos de periférico de entrada (teclado, ratón, comando vocal,…). El entorno gráfico también permite administrar los menús para la ejecución de aplicaciones, espacios de trabajo (llamados normalmente “escritorios virtuales”), iconos en el escritorio que representan atajos (hacia archivos, carpetas, aplicaciones, dispositivos). Resumiendo, el entorno gráfico (o ventana) constituye un conjunto integrado desarrollado con el objetivo de ofrecer una solución de trabajo coherente y totalmente ergonómico.

Un entorno de escritorio (en inglés, Desktop Environment) es un conjunto de software para ofrecer al usuario de una computadora una interacción amigable y cómoda.
El software es una solución completa de interfaz gráfica de usuario o GUI, ofrece iconos, barras de herramientas, programas e integración entre aplicaciones con habilidades como, arrastrar y soltar (drag&drop).
En general cada entorno de escritorio se distingue por su aspecto y comportamiento particulares, aunque algunos tienden a imitar características de escritorios ya existentes.
El primer entorno moderno de escritorio que se comercializó fue desarrollado por Xerox en los años 1980. Actualmente el entorno más conocido es el ofrecido por la familia Windows aunque existen otros como los de Macintosh (Classic y Cocoa) y de código abierto (o software libre) como GNOME, KDE, CDE o Xfce.

LENGUAJE DE PROGRAMACION

LENGUAJE DE PROGRAMACION:

Un lenguaje de programación es un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones, y es utilizado para controlar el comportamiento físico y lógico de una máquina.

Aunque muchas veces se usan los términos 'lenguaje de programación' y 'lenguaje informático' como si fuesen sinónimos, no tiene por qué ser así, ya que los lenguajes informáticos engloban a los lenguajes de programación y a otros más, como, por ejemplo, el HTML (lenguaje para el marcado de páginas web que no es propiamente un lenguaje de programación).

Un lenguaje de programación permite a uno o más programadores especificar de manera precisa sobre qué datos debe operar una computadora, cómo estos datos deben ser almacenados o transmitidos y qué acciones debe tomar bajo una variada gama de circunstancias. Todo esto, a través de un lenguaje que intenta estar relativamente próximo al lenguaje humano o natural, tal como sucede con el lenguaje Léxico. Una característica relevante de los lenguajes de programación es precisamente que más de un programador puedan tener un conjunto común de instrucciones que puedan ser comprendidas entre ellos para realizar la construcción del programa de forma colaborativa.

CLASIFICACION:
Lenguajes Maquina:

Están escritos en lenguajes directamente inteligibles por la maquina (computadora), ya que sus instrucciones son cadenas binarias (0 y 1). Da la posibilidad de cargar (transferir un programa a la memoria) sin necesidad de traducción posterior lo que supone una velocidad de ejecución superior, solo que con poca fiabilidad y dificultad de verificar y poner a punto los programas.

Lenguajes de bajo nivel :

Los lenguajes de bajo nivel son lenguajes de programación que se acercan al funcionamiento de una computadora. El lenguaje de más bajo nivel por excelencia es el código máquina. A éste le sigue el lenguaje ensamblador, ya que al programar en ensamblador se trabajan con los registros de memoria de la computadora de forma directa.

Lenguajes de medio nivel :

Hay lenguajes de programación que son considerados por algunos expertos como lenguajes de medio nivel (como es el caso del lenguaje C) al tener ciertas características que los acercan a los lenguajes de bajo nivel pero teniendo, al mismo tiempo, ciertas cualidades que lo hacen un lenguaje más cercano al humano y, por tanto, de alto nivel.

Lenguajes de alto nivel :
Artículo principal: Lenguaje de alto nivel
Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales, como el inglés. En BASIC, uno de los lenguajes de alto nivel más conocidos, los comandos como "IF CONTADOR = 10 THEN STOP" pueden utilizarse para pedir a la computadora que pare si el CONTADOR es igual a 10. Esta forma de trabajar puede dar la sensación de que las computadoras parecen comprender un lenguaje natural; en realidad lo hacen de una forma rígida y sistemática, sin que haya cabida, por ejemplo, para ambigüedades o dobles sentidos.
EJEMPLOS DE LENGUAJES DE PROGRAMACION:

HISTORIA DEL ALGORITMO

ALGORITMO:

En matemáticas, ciencias de la computación, y disciplinas relacionadas, un algoritmo (del latín, dixit algorithmus y éste a su vez del matemático persa al-Jwarizmi) es una lista bien definida, ordenada y finita de operaciones que permite hallar la solución a un problema. Dado un estado inicial y una entrada, a través de pasos sucesivos y bien definidos se llega a un estado final, obteniendo una solución. Los algoritmos son objeto de estudio de la algoritmia..

En la vida cotidiana se emplean algoritmos en multitud de ocasiones para resolver diversos problemas. Algunos ejemplos se encuentran en los instructivos (manuales de usuario), los cuales muestran algoritmos para usar el aparato en cuestión o inclusive en las instrucciones que recibe un trabajador por parte de su patrón. También existen ejemplos de índole matemático, como el algoritmo de la división para calcular el cociente de dos números, el algoritmo de Euclides para calcular el máximo común divisor de dos enteros positivos, o el método de Gauss para resolver un Sistema lineal de ecuaciones.

Cuando escribimos un programa de computadora, generalmente estamos llevando a cabo un método que se ha inventado para resolver algún problema previamente. Este método es a menudo independiente de la computadora y es probable que sea igualmente apropiado para muchas tipos de computadora y muchos lenguajes de computadora. Es el método, en el programa de computación, el que nosotros debemos estudiar para aprender cómo se está tratando de resolver el problema. El término algoritmo se usa en la informática para describir un método problema-solución conveniente para la aplicación en un programa de computadora. Los algoritmos son los materiales de informática, son los objetos centrales de estudio para muchos, si no la mayoría, de las áreas de campo.