viernes, 7 de septiembre de 2012

Portafolio Personal

¿Qué es la computación?
Etimológicamente, el término computación proviene del latín computatiōnis (cálculo o cuenta). Coloquialmente, la computación es la actividad de utilizar hardware y software de computador.
Formalmente, no hay una definición única de computación. Según algunas publicaciones académicas, podemos encontrar las siguientes definiciones:
 En general, es posible definir computación como cualquier actividad orientada a metas, que requiera computadores, se beneficie de computadores, o en donde se creen computadores. Por lo tanto, la computación incluye:
o El diseño y construcción de sistemas de software y hardware para un rango amplio de propósitos: tratamiento, ordenamiento y administración de tipos variados de información.
o La realización de estudios científicos utilizando computadores.
o El hacer que los sistemas de computadores se comporten de forma “inteligente”.
o La creación y utilización de medios de comunicación y entretenimiento.
o Encontrar y reunir información relevante para algún propósito particular, entre otros. Esta lista es virtualmente interminable, y las posibilidades son amplias.
 La disciplina de la computación es el estudio sistemático de procesos algorítmicos que describen y transforman información. Esta disciplina abarca:
o Teoría.
o Análisis.
o Diseño.
o Eficiencia.
o Implementación.
o Aplicación.
La pregunta fundamental que subyace a toda la computación es: “¿Qué puede ser automatizado de forma eficiente?”.
 El significado de “computación” también depende del contexto, ya que tiene distintos significados dependiendo del tipo de contexto:
o Por ejemplo, un especialista en sistemas de información verá la computación de manera ligeramente distinta a cómo la ve un ingeniero de software.
o Independiente del contexto, el hacer “buena computación” puede ser complicado y difícil. Debido a que la sociedad necesita gente que haga “buena computación”, debemos pensar en la computación no solo como una profesión, sino que además como una disciplina.


¿Qué es un computador?
Un computador es una máquina que lee, almacena, manipula y entrega datos. Los ejemplos más comunes de computadores modernos son:
 Los computadores personales (PC).
 Teléfonos celulares.
 Reproductores de música.
 Consolas de videojuegos, entre otros.
Un computador no tiene por qué necesariamente funcionar a base de electricidad. Las máquinas de cálculo mecánicas existentes en la antigüedad también pueden clasificarse como computadores, ya que cumplen con las funciones básicas de un computador y solían utilizarse para automatizar y/o asistir la realización de cálculos.


Algunos ejemplos de “computadores antiguos” son:
 El Mecanismo de Anticitera (87 a. C.).
 La calculadora pascalina (s. XVII).
 La regla de cálculo (S. XVII).
 Las máquinas diferenciales (la primera concebida en 1786 y construida en 1822).
Desde el descubrimiento y primeras aplicaciones de la electricidad, se comenzó a simplificar la construcción de los computadores. El auge de la electrónica a inicios del siglo XX permitió la construcción a gran escala de los componentes elementales necesarios para manipular la electricidad según principios físicos y modelos matemáticos ya conocidos.
Tal como los computadores antiguos permitían resolver problemas de cálculo utilizando leyes de la física mecánica para imitar comportamientos de la vida real, el auge de la electrónica permitió utilizar nuevas leyes para el mismo propósito, aunque con mayor eficiencia. Entre girar manualmente varias manivelas y accionar un par de interruptores para hacer circular electricidad, hay un menor tiempo de acción y reacción al hacer uso de la electricidad, lo cual permite hacer una mayor cantidad de cálculos en menor tiempo.

 ¿Qué es “analógico” y qué es “digital”?
En la actualidad, la gran mayoría de los computadores existentes son de tipo digital. Sin embargo, los primeros computadores (desde los computadores mecánicos antiguos hasta los primeros computadores electrónicos) eran solamente de tipo analógico.
A continuación se explica el significado de ambos términos.

 Computador analógico:
El término “analógico” hace alusión a la analogía o semejanza de comportamientos, en términos matemáticos, entre el computador y el fenómeno que se estudia a través de él.
Por ejemplo, el Mecanismo de Anticitera es un computador analógico que se utilizó para calcular la posición del sol, la luna y algunos planetas, con la finalidad de predecir eclipses. En este computador analógico, los cuerpos celestes están simulados mediante engranajes, de modo que al mover algunos de ellos, se mueve el resto, de forma análoga a las leyes de gravitación de los planetas.
Los computadores analógicos de tipo electrónico funcionan bajo el mismo principio. En este caso, los componentes mecánicos necesarios para realizar algún tipo de cálculo son sustituidos por componentes electrónicos, de modo que al variar el nivel y comportamiento de una corriente eléctrica en una parte del circuito, ocurra una variación relacionada, pero de una magnitud distinta, en otra parte del mismo circuito. En este caso, el comportamiento electrónico permite establecer la analogía con el hecho o cálculo matemático en estudio.
Todos los computadores analógicos son máquinas de propósito específico. Es decir, solamente son capaces de resolver un tipo de problema puntual.
Se han diseñado computadores analógicos específicamente para cada uno de los siguientes problemas:
 Cálculo de la posición de determinados planetas.
 Tabulación de funciones polinómicas.
 Operaciones aritméticas.
 Cálculo de razones trigonométricas.
 Cajas registradoras.

Computadores digitales
La palabra “digital” proviene del latín digitus (dedo o dígito). Los dedos son utilizados para contar, y los dígitos son los símbolos que, inicialmente, se crearon con el objetivo de formar los números que permiten contar objetos (números cardinales).
Los computadores analógicos (también llamados computadores reales) utilizan funciones continuas o de valores reales para representar la información. En cambio, los computadores digitales utilizan funciones discretas para representar la información.
Una función discreta es aquella cuyo dominio es un conjunto numerable. Por ejemplo, una función que tenga como dominio un subconjunto de los números naturales y/o cardinales es una función discreta.
Para resolver un problema mediante un computador digital, se debe convertir el problema analógico correspondiente a una representación simbólica adecuada. Esta representación simbólica está compuesta por muchas instrucciones y operaciones que dan como resultado un conjunto determinado de estados. La representación simbólica más usual de los resultados de las operaciones de computación digital es el conjunto de valores verdadero y falso, representados por los dígitos 1 y 0 respectivamente.
Por una parte, el primer código digital existente fue el código Morse, creado en 1836 para transmitir información a distancia. Por otra, el primer fundamento teórico que sustenta la capacidad de procesar información mediante un sistema digital es el álgebra de Boole, que es una estructura algebraica que permite operar la lógica proposicional. Dicho esto, los computadores digitales fundamentalmente resuelven operaciones de lógica proposicional.
Los computadores digitales pueden ser máquinas de propósito general o de propósito específico. El hecho de que los computadores digitales puedan ser programados (dotados de instrucciones) hace que teóricamente sean máquinas de propósito general, es decir, destinadas a resolver muchos tipos de problemas. Un computador digital es de propósito específico cuando solamente puede ser reprogramado para resolver tipos específicos de problemas o cuando está optimizado para resolver de forma más eficiente cierta clase de problemas.

Computadores híbridos
Existe un dispositivo intermedio entre los computadores analógicos y los computadores digitales, llamado computador híbrido:
 Los componentes digitales normalmente sirven como controladores y proporcionan operaciones lógicas.
 Los componentes analógicos sirven normalmente como solucionadores de ecuaciones diferenciales o generadores de valores aleatorios con muy baja probabilidad de predicción.
En general, los computadores analógicos son extremadamente rápidos, ya que solucionan ecuaciones altamente complejas a la velocidad en la que la electricidad atraviesa un circuito de una sola vez, además de poder manejar un rango continuo de valores de solución. Por otro lado, la precisión de los computadores analógicos no es buena, ya que está sujeta a las características físicas y eléctricas de sus componentes.
Los computadores digitales no son tan rápidos, ya que deben descomponer las operaciones en varias instrucciones, además de utilizar aproximaciones para resolver problemas complejos y manejar un menor rango de valores de solución, estando limitado este rango por el tamaño de los datos que cada computador maneja. Por ejemplo, para resolver una ecuación se busca el resultado mediante métodos basados en el ensayo y error, o bien los cálculos de alta complejidad se simplifican en sumas y restas.
El modelo de computador híbrido es poco utilizado hoy en día, ya que el tamaño de las memorias, dispositivos de almacenamiento y potencia de procesamiento son lo suficientemente elevados para hacer que temas como la lentitud inherente y el tamaño máximo de los datos en los computadores digitales pase inadvertida y deje de ser una limitación.
Una aplicación actual de la computación híbrida consiste en la obtención de valores aleatorios que sean lo más impredecibles posible. Un computador digital puede generar valores pseudoaleatorios, es decir, no se trata de valores realmente aleatorios, puesto que se puede conocer cómo se generan mirando qué sucede dentro del computador. Esto se puede mejorar añadiendo al computador digital un componente analógico que se encargue de generar los valores aleatorios extrayendo información del medioambiente o de cualquier otra fuente a la que no se le pueda predecir u observar el comportamiento con exactitud. Entonces, el valor aleatorio es generado por el componente analógico y luego convertido para que el computador lo pueda manipular de forma digital.

¿Por qué es necesaria una “ciencia de la computación”?
En la época de los computadores analógicos, la computación basaba sus principios completamente en otras ciencias, tales como la física y la electrónica. Posteriormente, con el surgimiento de los computadores digitales, la física y la electrónica dejaron de ser el instrumento solucionador de los problemas de computación, pasando la máquina a ser en el ámbito de la computación digital simplemente el soporte físico (hardware) utilizado para ejecutar sobre él las instrucciones que solucionan los problemas (software). La construcción física y electrónica de los computadores digitales se ha basado en principios similares desde hace más de 60 años. Sin embargo, lo que ha ido evolucionando es la forma en la que se organizan los componentes y, por sobre todo, las técnicas de programación que permiten sacar mayor provecho a éstos.
Precisamente, la ciencia de la computación utiliza una gran cantidad de áreas de conocimiento para permitir que máquinas (generalmente digitales) solucionen problemas y manipulen información de la forma más eficiente posible.
Algunas de las áreas de conocimiento más notorias utilizadas por la ciencia de la computación son:
 Lógica y álgebra de Boole: codificación de demostraciones, conjuntos, decisiones y expresiones.
 Matemática discreta: estudio de conjuntos de elementos numerables y grafos.
 Métodos numéricos: métodos para solucionar de forma aproximada problemas matemáticos analíticos.
 Teoría de la información: leyes matemáticas que rigen el procesamiento de información.
 Teoría de autómatas: modelos matemáticos de máquinas teóricas capaces de resolver problemas computables.
 Análisis de algoritmos: estudio de la eficiencia y complejidad de diversas estrategias para solucionar problemas computacionales.
 Teoría de la computabilidad: clasificación de problemas según si pueden ser resueltos o no por un computador.
En adelante, y para efectos de los siguientes contenidos del curso y todo tema relacionado, se habla de “computador” solamente en referencia a los computadores digitales, que son el objeto de estudio principal de las ciencias de la computación.

 ¿Cuál es la diferencia entre “computación” e “informática”?
Coloquialmente, ambos términos se utilizan como sinónimos, pero en profundidad hay una gran diferencia entre ellos.
Como ya se vio con anterioridad, el término computación proviene del latín computatiōnis (cálculo o cuenta). En cambio, el término informática proviene del francés informatique, cuyo significado es “tratamiento automatizado de la información”.
Para efectos de este curso, utilizaremos “computación” como sinónimo de “ciencia de la computación”.
Finalmente, la computación comprende la solución de problemas y manipulación de información de manera eficiente por parte de las máquinas; y la informática comprende las herramientas utilizadas exclusivamente para el tratamiento automatizado de la información. Cuando se habla de informática, se habla también de computación; pero cuando se habla de computación, no necesariamente se habla de informática.

Historia y generaciones de la computación
Hasta el día de hoy, existen 6 generaciones de computadores. Otros autores mencionan 5 generaciones, dependiendo la definición de la época de edición de los respectivos materiales académicos:
 1ª generación: hasta 1958. Se inicia con el ábaco, siguen las calculadoras y los computadores de tubos de vacío. Su utilidad principal es procesar información.
 2ª generación: desde 1959 a 1964. Se crea el transistor, reduciendo tamaño y nivel de fallas. También se incorporan las memorias basadas en redes de núcleos magnéticos.
 3ª generación: desde 1964 a 1971. Se desarrollan los primeros circuitos integrados, logrando reducción de tamaño y rapidez de funcionamiento.
 4ª generación: desde 1971 a 1981. Se remplazan las memorias de núcleos magnéticas por microchips.
 5ª generación: desde 1982 a 1989. Es llamada la “era de la inteligencia artificial”. Se implementan las telecomunicaciones entre computadores.
 6ª generación: desde 1990 a la actualidad. Se dan avances en la tecnología portátil. Inicialmente surgen los notebook, pasando por todo tipo de dispositivos portátiles hasta llegar a los Tablet y Smartphone.


 La arquitectura de Von Neumann
El diseño conceptual y estructura fundamental de un sistema de computación es conocido como “arquitectura”. La arquitectura determina la forma en que las distintas partes de un computador están interconectadas y las funciones de cada una de estas partes.

Los componentes principales identificables en la arquitectura de un computador son:
 Unidad Central de Procesamiento (CPU): es el componente principal de un computador. Se encarga de interpretar las instrucciones contenidas en los programas y procesar datos.
o Unidad Aritmético-Lógica (ALU): está dentro de la CPU y su función es calcular operaciones aritméticas (suma, resta, multiplicación, división) y lógicas (Y, O, NO, implica), entre dos valores dados.
o Unidad de Control (UC): también está dentro de la CPU. Su función es buscar las instrucciones en la memoria principal del computador, interpretarlas y ejecutarlas empleando la ALU y los registros.
o Registros: componentes de la CPU que permiten almacenar resultados de las operaciones realizadas por la ALU y otros datos extraídos desde la memoria principal.
 Memoria Principal (o memoria central, o memoria de trabajo): es la memoria en donde se encuentran las instrucciones y datos que debe emplear la CPU para resolver los problemas.
 Sistemas de Entrada y Salida (E/S o periféricos): son los dispositivos auxiliares conectados a la CPU, cuyas funciones son conectar al computador con el mundo exterior, y/o archivar información a largo plazo.
 Bus (canal de comunicación): son los canales que transfieren información entre los componentes del computador. El bus se puede descomponer en 3 subtipos de buses:
o Bus de datos: transfiere los datos que necesita procesar, calcular o almacenar el computador.
o Bus de direcciones: comunica la ubicación de los datos que cada componente necesita acceder.
o Bus de control: controla el uso de los buses de datos y de direcciones por parte de los diversos componentes del computador.


¿Qué es un algoritmo?
Un algoritmo es un conjunto de instrucciones que permite realizar una actividad mediante pasos sucesivos.
Las instrucciones o reglas que forman los algoritmos deben ser:
 Bien definidas: no deben dar lugar a ambigüedades.
 Ordenadas: deben tener una secuencia lógica.
 Finitas: deben tener inicio (estado inicial) y fin (estado final).
Los algoritmos son objeto de estudio tanto en las matemáticas como en las ciencias de la computación. Se emplean para resolver problemas, tanto si las instrucciones son seguidas por un humano como si son seguidas por un computador.

¿Qué problemas pueden solucionarse mediante algoritmos?
No todos los problemas son solucionables mediante algoritmos. Según el caso, pueden darse las siguientes situaciones:
 Existen algoritmos que solucionan el problema.
o El algoritmo se puede implementar: resuelve el problema y lo hace en un tiempo razonable.
o El algoritmo no se puede implementar: no resuelve el problema debido a limitaciones del computador en el que se implementa, o bien podría resolverlo pero demoraría demasiado.
 No existen algoritmos que solucionen el problema.

Las estructuras necesarias para representar un algoritmo son:

1- Estructura de proceso.

2- Primitivas.

3- Expresiones:            o Numéricas.
                                   o Alfanuméricas.
                                   o Lógicas.

4- Variables:               o Definición.
                                  o Asignación.

5- Operadores:          o Aritméticos.
                                 o Lógicos.
                                 o Agrupación y precedencia.

6- Funciones

7- Estructuras de control:  o Condicional.
                                        o Iteración.




Unidades de medida de la informacion:

1 bit = 0,1
1 byte = 8 bits
1 kilo byte = 1024 bytes
1 mega byte = 1.048.576 bytes    (1024 kb)
1 giga byte = 1.073.741.824 bytes    (1024 mb)
1 tera byte = 1.099.511.627.776 bytes


Memorias:
RAM:         Random Acces Memory
ROM:         Read Only Memory
CACHE:     Es mas pequeño, rapido y costoso.



Comonentes de un computador:

1) HW (Hardware):    -perifericos de entrada
                                  -perifericos de salida
                                  -CPU

2) SW (Software):      -programas
                                  -sistema operativo
                                  -aplicaciones



Sistemas Numericos:

1) Decimal = base 10  ==> 0,1,2,3......
2) Binario = base 2    ==> 010101011
3) Octal = base 8     ==> 0,1.......7,10,11,......17,20
4) Hexadecimal = base 16   ==> 0,1,2........8,9, A,B,C,......E,F,10




Operaciones aritmeticas sobre binarios:

1) Suma;   1+0 = 1
                  0+1 = 1
                  0+0 = 0
                  1-1 = 0 (acarreo 1)
           
             11111
Ej:         101101
         +  011011
           1001000

2) Resta:    1-0 = 1
                    0-1 = 1 (debo 1)
                    0-0 = 0
                    1-1 = 0

Ej:             0    0
                 101101
             -  011011 
                010010

3) Producto:      1*0 = 0
                          0*1 = 1
                          1*1 = 1
                          0*0 = 0

Ej:              1101 * 101                                  
                11101
          +  100000
              110100   
            1000001









¿Qué es un algoritmo?:
Definición: Un algoritmo es un conjunto finito de pasos específicos y organizados para
realizar una labor.

¿Qué se entiende por escribirlo en castellano?
¿Uso pseudo-código?
No, la idea no es usar pseudo-código en el que tengo variables con valores, ya
que eso puede ser tan parecido al código, que no me ahorro nada y no me sirve para
estructurarlo. La idea es dar un esquema de los pasos en castellano sin variables ni
detalles de implementación.


Diagrama de flujo:
Los diagramas de flujo son descripciones gráficas de algoritmos; usan símbolos conectados con flechas para indicar la secuencia de instrucciones y están regidos por ISO.

Los diagramas de flujo son usados para representar algoritmos pequeños, ya que abarcan mucho espacio y su construcción es laboriosa. Por su facilidad de lectura son usados como introducción a los algoritmos, descripción de un lenguaje y descripción de procesos a personas ajenas a la computación.

Los algoritmos pueden ser expresados de muchas maneras, incluyendo al lenguaje natural, pseudocódigo, diagramas de flujo y lenguajes de programación entre otros. Las descripciones en lenguaje natural tienden a ser ambiguas y extensas. El usar pseudocódigo y diagramas de flujo evita muchas ambigüedades del lenguaje natural. Dichas expresiones son formas más estructuradas para representar algoritmos; no obstante, se mantienen independientes de un lenguaje de programación específico.







Algoritmos

 Una farmacioa con una lista de 4 medicamentos, el cual se especifica con los siguientes datos: codigo, nombre, laboratorio, cantidad, precio.Lea esta informacion y:
 a)busque el medicamento que hay en mayor cantidad, y mueste por pantalla el nombre
 b)calcule el precio promedio y lo muestre en pantalla

Proceso farmacia
mayor<-0
suma<-0

//desarrollo pregunta a)
Dimension codigo[4]
Dimension nombre[4]
Dimension laboratorio[4]
Dimension cantidad[4]
Dimension precio[4]
Para i<-1 Hasta 4 Con Paso 1 Hacer
    Escribir "ingrese valores de codigo, nombre, laboratorio, cantidad disponible, precio: ",i;
    Leer codigo[i],nombre[i],laboratorio[i],cantidad[i],precio[i];
FinPara
Para i<-1 Hasta 4 Con Paso 1 Hacer
    Si cantidad[i]>mayor
     mayor<- cantidad[i]
     stock<-i

FinSi
FinPara
// desarrollo pregunta b)
Para i<-1 hasta 4 con paso 1 hacer
    suma<-suma+precio[i]
FinPara
    promedio<-suma/4;
Escribir "el medicamento con mas stock es:", nombre[stock],"con una cantidad de: ",mayor, "productos";
Escribir "el precio promedio de los medicamentos es: ",promedio;
FinProceso





2)Dada una matriz de 3x3, diseñar un algoritmo que permita encontrar el producto entre ambas diagonales y lo muestre por pantalla (productos diagonalA * productos diagonalB)

Proceso diagonales
producto<-0
diagonalA<-1
diagonalB<-1

Dimension matriz[3,3]
Para i<-1 Hasta 3 Con Paso 1 Hacer
Para j<-1 Hasta 3 Con Paso 1 Hacer
     Escribir "ingrese datos para filas ",i, "columnas ",j;
      Leer matriz[i,j]
FinPara
FinPara
Para i<-1 Hasta 3 con paso 1 Hacer
Para j<-1 Hasta 3 Con Paso 1 Hacer
    Si i=j Entonces
    diagonalA<-diagonalA * matriz[i,j]
FinSi
FinPara
FinPara
 Para i<-1 Hasta 3 Con Paso 1 Hacer
  Para j<-1 Hasta 3 Con Paso 1 Hacer
        Si i+j=4 Entonces
        diagonalB<-diagonalB * matriz[i,j]
    FinSi
FinPara
FinPara

Escribir "el producto de la primera diagonal es: ",diagonalA;
Escribir "el producto de la segunda diagonal es: ",diagonalB;
       producto<- diagonalA*diagonalB
Escribir "el producto entre ambas diagonales es: ",producto;
FinProceso



Llenar una matriz de dimension n,n , calcular la suma de la primera columna, la suma total de la matriz, el valor mas alto de la matriz, el promedio de la matriz.

Proceso matriz
suma<-0
suma_matriz<-0
promedio<-0
mayor<-0
Escribir "ingrese numero de filas de la matriz";
Leer f
Escribir "ingrese numero de columnas de la matriz";
Leer c
Dimension matriz[f,c]
Para i<-1 Hasta f Con Paso 1 Hacer
Para j<-1 Hasta c Con Paso 1 Hacer
Escribir "ingrese datos para las filas",i,"columnas",j;
Leer matriz [i,j]
FinPara
suma<- suma+matriz[i,1]
FinPara
Para i<-1 Hasta f Con Paso 1 Hacer
Para j<-1 Hasta c Con Paso 1 Hacer
suma_matriz<-suma_matriz+ matriz[i,j]
si matriz[i,j]>mayor
mayor<-matriz[i,j]
FinSi
promedio<-suma_matriz/matriz[i,j]
FinPara
FinPara
Escribir "la suma total de los datos de la columna 1 es: ",suma;
Escribir "la suma de total de la matriz es: ",suma_matriz;
Escribir "el valor mas alto de la matriz es: ",mayor;
Escribir "el promedio de la matriz es: ",promedio;
FinProceso



Vector: de [n] que permita ver la suma total del vector, y encontrar el dato mayor de este.
Proceso suma de numeros del vector, mayor valor
suma_total<-0
mayor<- 0
menor<- 0
Escribir "ingrese el numero de casilleros del vector";
Leer n
Dimension vector[n]
Para i<-1 Hasta n Con Paso 1 Hacer
Escribir "ingrese numeros a trabajar",i;
Leer vector[i]
suma_total <- suma_total+ vector[i]
FinPara

Para i<-1 hasta n hacer
si vector[i]> mayor entonces
mayor<- vector[i]
FinSi
FinPara
Para i<-1 Hasta n Hacer
Escribir "la suma de:", vector[i];
FinPara
Escribir "es:",suma_total;
Escribir "el dato mayor del vector es: ",mayor;
Escribir "el dato menor del vector es: ",menor;
FinProceso

jueves, 6 de septiembre de 2012

Apuntes Profesor Ayudante




¿Que es la computación?
La computación es un sinónimo de informática, y es el estudio teórico de las bases de la información, las computadoras y la aplicación de estas bases en los sistemas computacionales.

¿Que es un computador?
Una computador es un sistema digital con tecnología microelectrónica capaz de procesar datos a partir de un grupo de instrucciones denominado programa. La estructura básica de una computadora incluye microprocesador (CPU), memoria y dispositivos de entrada/salida (E/S), junto a los buses que permiten la comunicación entre ellos. La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que los ejecute el procesador.

Tipos de computadora:

Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.

Computadora Analógica:
Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).

Computadora Digital: 
Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.

Ciencias de la computación:
Las ciencias de la computación o ciencias computacionales (popularmente solo computación) son aquellas que abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales.1 2 3 Existen diversos campos o disciplinas dentro de las ciencias de la computación o ciencias computacionales; algunos resaltan:
- Programadores
- Técnicos
- Informáticos
- Etc..

Generaciones:


Primera Generación: La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.


Segunda Generación: La segunda generación de las computadoras reemplazó a las válvulas de vacío por los transistores.

Tercera Generación: Menor consumo de energía, apreciable reducción del espacio, aumento de fiabilidad, teleproceso, multiprogramación, renovación de periféricos, minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
Se calculó π (Número Pi) con 500.000 decimales.

Cuarta Generación: Época de los microprocesadores, con circuitos cerrados de alta velocidad. Nace la "revolución informática"

Quinta Generación: Introducidos por Japón, constaban de procesamiento paralelo. Tenían lenguaje natural e inteligencia artificial.



Modelo J. Von Neuman.


Apuntes de Profesora Macarena Cerda

CIENCIAS DE LA COMPUTACIÓN

Sección 5


Descripción de la asignatura :  
 Obligatoria, de formación básica, teórica y practica. Permite el conocimiento para especificar requerimientos de hardware y software; capacidad para incorporar la computación como herramienta de apoyo a la solución de problemas y destreza para utilizar software de escritorio.

Objetivo General:
Entender la computación como una herramienta necesaria y presente en todos los ámbitos del que hacer de las organizaciones.
Identificar las componentes funcionales y la estructura lógica del computador.
Comprender especificaciones de hardware y software, diseñar soluciones algorítmicas en un lenguaje de alto nivel.
Utilizar software de sistemas operativos y de aplicaciones de escritorio, ejecutar operaciones de búsqueda, captura, uso y envió de información.


Objetivos Específicos:

UNIDAD 1 ''Hardware y Software'':
-Modelo lógico del computador a través de la función S = f (e), donde ''e'' representa los datos, ''S'' representa los resultados y ''f'' constituye la función de transformación en la forma de algoritmo.
-Representación interna de datos (datos lógicos y físicos, representación de literales, representación de numeros)
-Hardware ( medios de almacenamiento, procesadores, periféricos, direccionamiento)
-Software (sistemas operativos, software de desarrollos, software de aplicación, de comunicaciones)
Procesadores de texto
Planillas de calculo
Presentadores audiovisuales
Manejador de bases de datos
Correo electrónico
Búsqueda y captura de información en Internet

UNIDAD 2 ''Algoritmos y Programacion'':
-Descomposición y composición de problemas.
-Concepto de Algoritmo.
-Notaciones para expresar algoritmos.
-Datos y control de flujo.
-Lectura, secuenciacion, selección y repetición.
-Uso de un lenguaje de alto nivel para implementar algoritmos.
-Tipos elementales de datos, constantes y variables.
-Variables
___________________________________________________________________________________
 APUNTES 

Sistemas Numéricos:
En matemáticas, varios sistemas de notación que se han usado o se usan para representar cantidades abstractas denomidados números. Un sistema numérico esta definido por la base que utiliza.
La base de un sistema numérico es el numero de símbolos diferentes necesarios para representar un números cualquiera de los infinitos posibles en el sistema.

Sistema Binario:
En matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno. Es el que se utiliza en las computadoras, pues trabajan internamente con los niveles de voltaje, por lo que su sistema de numeración normal es el sistema binario (encendido 1, apagado 0)

Sistema Octal:

Es también muy usado en la computación por tener una base que es potencia exacta de 2 o de la numeración binaria.
Esta característica hace que la conversión a binario o viceversa, sea bastante simple. Tiene 8 dígito (0,1,2,3,4,5,6,7).

Sistema Hexadecimal:
A veces abreviado como Hex. , es el sistema de numeración de base 16 (emplea por lo tanto 16 símbolos).
Su uso actual esta muy vinculado a la informática y ciencias de la computación, pues los computadores suelen utilizar el ''byte'' u octeto, como unidad básica de memoria, debido a que un byte representa
2^8 ( dos elevado a ocho) valores posibles.

Sistema Decimal:
Es el sistema usado habitualmente en todo el mundo (excepto ciertas culturas) y en todas las áreas que requieran de un sistema de numeración.




Algoritmos:

En matemáticas, ciencias de la computación y disciplinas relacionadas, un algoritmo (del griego y latín, dixit algorithmus y este a su vez del matemático persa Al-Juarismi1 ) es un conjunto preescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien deba realizar dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de la algoritmia.

Todo algoritmo debe obedecer a la estructura básica de un sistema, es decir: entrada, proceso y salida.

Donde:

ENTRADA

Corresponde al insumo, a los datos necesarios que requiere el proceso para ofrecer los resultados esperados.

PROCESO

Pasos necesarios para obtener la solución del problema o la situación planteada.

SALIDA

Resultados arrojados por el proceso como solución.

En el ejemplo del algoritmo de la sumatoria de los dos números, tenemos:

ENTRADA

Valores de de las variables A y B.

PROCESO

Asignar a la variable Suma, el valor de A mas el valor de B.

SALIDA

Impresión del valor de la variable Suma, que contiene la sumatoria

de los valores de A y B.



Algoritmo condicional (sentencia si):

Las estructuras condicionales comparan una variable contra otro(s)valor (es), para que en base al resultado de esta comparación, se siga un curso de acción dentro del programa. Cabe mencionar que la comparación se puede hacer contra otra variable o contra una constante, según se necesite. Existen tres tipos básicos, las simples, las dobles y las múltiples.

Dobles: Las estructuras condicionales dobles permiten elegir entre dos opciones o alternativas posibles en función del cumplimiento o no de una determinada condición.

Múltiples: Las estructuras de comparación múltiples, son tomas de decisión especializadas que permiten comparar una variable contra distintos posibles resultados, ejecutando para cada caso una serie de instrucciones especificas. 

Forma:
Si: Indica el comando de comparación
Condición : Indica la condición a evaluar
Entonces : Precede a las acciones a realizar cuando se cumple la condición
 Instrucción(es): Son las acciones a realizar cuando se cumple o no la condición
 si no : Precede a las acciones a realizar cuando no se cumple la condición
Dependiendo de si la comparación es cierta o falsa, se pueden realizar una o más acciones.



Glosario de Términos

1) Address (dirección): Existen tres tipos de dirección de uso común dentro de Internet: "Dirección de correo electrónico" (email address);"IP" (dirección internet); y "dirección hardware" o "dirección MAC" (hardware or MAC address).]

2) Algoritmo:
Se trata de un conjunto de instrucciones concretas y detalladas mediante el cual se consigue una acción determinada. Por ejemplo, una receta de cocina sería un algoritmo, que indica el número de pasos necesarios para preparar un plato a nuestro gusto.

3) Ancho de banda: Aunque este término procede del mundo de las telecomunicaciones, se suele aplicar a memorias y redes para indicar la máxima cantidad de información simultánea que puede transferir. Lógicamente, cuanto mayor sea dicha cifra, tanto mejor.

4) Antivirus: Software o programa informático para detectar y eliminar virus y otras aplicaciones maliciosas. Los proveedores más famosos son McAfee, Panda y Norton.

5) Aplicación: Una forma de llamar a los programas que nos permiten trabajar con el ordenador. Puede ser sinónimo de programa, software o paquete.

6) Archivo: Información relacionada, tratada como unidad y ordenada en un disco. Su aspecto se define por un nombre que designa el usuario y una extensión que se refiere a su formato ya sea de texto, gráfico, ejecutable, etc.

7) AVI: Formato de vídeo digital para Windows, con sonido incorporado.


8) Base de datos: Utilidad informática que permite almacenar la información de una forma ordenada mediante registros y campos y siguiendo unos determinados criterios.

9) Beta: Se llama así a las versiones no definitivas de los programas que las empresas distribuyen a los especialistas para que pasen diferentes bancos de pruebas. Por supuesto, no se pueden comercializar.

10) Binario:
Se trata del código básico de la informática que reduce todo tipo de información a cadenas de ceros y unos, que rigen las instrucciones y respuestas del microprocesador. La información en su más pura esencia. BIOS: Conjunto de procedimientos básicos para el funcionamiento de la computadora.

11) BIOS (basic input/output system): Es un tipo de firmware que localiza y prepara los componentes electrónicos o periféricos de una máquina, para comunicarlos con algún sistema operativo que la gobernará. Para ello la máquina cargará ese sencillo programa en la memoria RAM central del aparato. 

12) Bit: Unidad básica de información. Es la mínima información y representa un 0 o un 1.

13) Blog: Página web que recoge textos o artículos y comentarios a los mismos.

14) Byte: Ocho bits forman un byte o carácter. Se trata de la unidad básica con la que funcionan los PCs. 1.024 bytes son un kilobyte, y un 1.024 Kbytes hacen un megabyte.

15) Cache: Almacenamiento temporario de información. Lugar donde se guarla las ultimas vistas de páginas de internet.

16) CD-ROM: En español es un disco compacto. Abreviación de Compact Disk Read-Only Memory. Sirve para almacenar datos digitales y puede contener 650 Mb.

17) Chip: Circuito integrado que realiza alguna función.

18) Cibernética: Ciencia que estudia el diseño de máquinas automáticas o robots, con objeto de dotarles de inteligencia humana.

19) Comando: Archivo especial que especifica a la computadora como desarrollar una tarea.

20) Cookie: Pequeño archivo de texto que un sitio web coloca en el disco duro de una computadora que lo visita. Al mismo tiempo, recoge información sobre el usuario. Agiliza la navegación en el sitio. Su uso es controvertido, porque pone en riesgo la privacidad de los usuarios.

21) CPU (Central Processing Unit): Unidad central de procesamiento. Es el procesador que contiene los circuitos lógicos que realizan las instrucciones de la computadora.

22) Cuello de botella: Límite en la capacidad del sistema que puede reducir el tráfico en condiciones de sobrecarga.

23) Defragmentar: El defragmentador de disco incrementa la velocidad de acceso al disco reorganizando los archivos y el espacio libre de su PC, de modo que los archivos se almacenen en unidades contiguas, y el espacio libre se consolide en un bloque contiguo.

24) Discos duros: Medio de almacenamiento en microcomputadoras, contienen una o mas superficies rígidas para grabar datos, cada una cubierta con un oxido metálico que registra cargas magnéticas. Estos dispositivos tienen, sobre los discos flexibles, las ventajas siguientes: mayor velocidad de acceso, mayor capacidad de almacenamiento y su característica de fijo, lo cual significa que no hay necesidad de estar insertando y retirando discos de algún otro medio de almacenamiento, lo cual sí ocurre en las unidades de discos flexibles.

25) Disco óptico: Disco que usa la tecnología láser para el registro y lectura de la información, y que además goza de una excelente vista.

26) Diskette: Es el disco portàtil que se utiliza para almacenar y transferir datos entre computadores personales que no están conectados entre sí.

27) Dominio público: Se refiere a aquellos programas de libre uso y que no suponen un desembolso previo por parte del usuario. Relacionado con shareware y freeware. Aunque en informática pocas cosas son realmente gratis. 

28) Driver: Controlador de software que gestiona los periféricos que se conectan a la computadora. Gracias a ellos, puedes instalar todo lo que se quiera en la PC.

29) Ejecutar: Realizar una instrucción de sistema.

30) E-mail: Correo electrónico.

31) Emoticón: Pequeños dibujos animados que representan estados emocionales.

32) Emulación: Proceso de compatibilización entre computadoras mediante un software. Con el cual se imita la función de un hardware distinto.

33) Encriptar: Proteger archivos expresando su contenido en un lenguaje cifrado. Los lenguajes cifrados simples consisten, por ejemplo, en la sustitución de letras por números.

34) Ethernet: Estándar para redes de PC muy utilizado por su rapidez y bajo coste. Admite distintas velocidades según el tipo de hardware utilizado, siendo las más comunes 10 y 100 Mbits/s (comúnmente denominadas Ethernet y Fast Ethernet y de recientemente aparición las de 1000 Mbits/s.

35) Extensión: Es un conjunto de 3 caracteres añadido a un nombre de archivo y que tiene por finalidad: a) precisar su significado, b) identificarlo como miembro de una categoría. Ejemplo: La extensión .DOC identifica a los documentos de Word y la extensión .XLS a los libros de Excel.

36) FAQ: Sigla de Frequently Asked Questions o preguntas frecuentemente formuladas. Las FAQs son documentos en línea que ordenan y responden a las preguntas más frecuentes de un tema concreto.

37) Firewall: Una computadora que corre un software especial utilizado para prevenir el acceso de usuarios no autorizados a la red. Todo el tráfico de la red debe pasar primero a través de la computadora del firewall.

38) Formateo: Acción y efecto de dar formato o estructura a un disco o disquete. Se trata normalmente de la última opción que tiene el usuario para hacer un borrón y cuenta nueva, cuando las otras medidas preventivas (antivirus, desfragmentación, reorganización de la memoria, etc.) fracasan.

39) FTP (File Transfer Protocol): Protocolo de Transferencia de Archivos. Sirve para enviar y recibir archivos de Internet.

40) GIF: Formato de intercambio de gráficos. GIF es un formato estándar para archivos de imágenes en WWW. El formato de archivos GIF es muy común, ya que utiliza un método de compresión para reducir los archivos.

41) Gigabit: Mil millones de bits.

42) Gigabyte: Unidad de medida de una memoria. 1 gigabye=1024 megabytes.

43) Grabar: Acción y efecto de almacenar un archivo en un soporte de almacenamiento, un disco o un disquete.

44) Hardware: Parte física del ordenador. Esta formado por los componentes que integran el ordenador: circuitos internos, cables, monitor, etc

45) Hipertexto: Textos enlazados entre sí. Haciendo clic con el mouse el usuario pasa de un texto a otro, vinculado con el anterior.

46) HTML (HyperText Markup Language, Lenguaje de Marcado de Hipertextos): Lenguaje que define textos, destinado a simplificar la escritura de documentos estándar. Es la base estructural en la que están diseñadas las páginas de la World Wide Web.

47) HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de Hipertexto): Es el mecanismo de intercambio de información que constituye la base funcional de la World Wide Web.

48) Icon: (icono): Símbolo gráfico que aparece en la pantalla de una computadora para representar determinada acción a realizar por el usuario, ejecutar un programa, leer una información, imprimir un texto, etc.

49) Internet: Es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos, garantizando que las redes físicas heterogeneas que la componen funcionen como una red lógica única, de alcance mundial.

50) Intranet: Las Intranets son redes corporativas que utilizan los protocolos y herramientas de Internet. 

51) Java: Lenguaje de programación creado por Sun Microsystems.

52) JPEG(Joint Photographic Experts Group): Se trata de un conocido método para comprimir imágenes fotográficas. Muchos exploradores del Web aceptan imágenes JPEG como el formato de archivo estándar para la visualización.   

53) LAN (Local Area Network) (Red de Area Local):LAN (Local Area Network) (Red de Area Local): Red de datos para dar servicio a un arrea geográfica máxima de unos pocos kilómetros cuadrados, por lo cual pueden optimizarse los protocolos de señal de la red para llegar a velocidades de transmisión de hasta 100 Mbps

54) Link (enlace, enlazar): Apuntadores hipertexto que sirven para saltar de una información a otra, o de un servidor a otro, cuando se navega por Internet.   

55) Memoria RAM (random-access memory): Es el dispositivo de almacenamiento de donde el procesador recibe instrucciones para funciones determinadas. 

56) Memoria ROM (read-only memory): Es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.

57) Memorias de almacenamientos: Son el conjunto de dispositivos donde se guarda la información básica para el inicio del computador.

58) Multimedia: Combinación de varias tecnologías de presentación de información (imágenes, sonido, animación, video, texto) con la intención de captar tantos sentidos humanos como sea posible. Previamente a la existencia de la multimedia, el intercambio de información con las computadoras estaba limitado al texto.

59) Navegar: Recorrer la Web, sin destino fijo, siguiendo enlaces o direcciones.

60) Network (red): Una red de computadoras es un sistema de comunicación de datos que conecta entre si sistemas informáticos situados en diferentes lugares. Puede estar compuesta por diferentes combinaciones de diversos tipos de redes.

 61) Placa: tarjeta que se inserta en un slot de la motherboard para expandir la capacidad de una computadora.

62) Placa aceleradora: Circuito que se agrega a una computadora para aumentar su velocidad.

63) Placa aceleradora de gráficos: Circuito que se agrega a una computadora para mejorar los recursos gráficos y darles más velocidad.

64) Placa Ethernet: Placa que se inserta en una computadora para conectarla en red con otras a través de un cable.

65) Placa de sonido: Es la que proporciona sonido a una computadora. Una de las más conocidas es Sound Blaster.

66) Placa madre: Es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador.

67) Player: Programa que permite escuchar archivos de sonido.

68) Proceso: En informática se manejan varias definiciones que aluden a diversos elementos: puede ser simplemente una operación o conjunto combinado de operaciones con datos, o bien una secuencia de acontecimientos definida única y delimitada, que obedece a una intención operacional en condiciones predeterminadas. 

69) Programa: Sinónimo de software. Conjunto de instrucciones que se ejecutan en la memoria de una computadora para lograr algún objetivo.

70) Red: Es un conjunto de computadores (dos o más) que están unidos entre sí a través de elementos de comunicaciones, que pueden ser permanentes (como cables) o bien temporales, como enlaces telefónicos u otros. Dependiendo de su tamaño, las redes se clasifican en "LAN", "MAN" y "WAN".

71) Registro: Es una pequeña unidad de almacenamiento destinada a contener cierto tipo de datos. Puede estar en la propia memoria central o en unidades de memoria de acceso rápido.

72) Servidor: En una red, estación host de datos que proporciona servicios a otras estaciones.

73) Signature (firma): Mensaje de tres o cuatro líneas situado al final de un mensaje de correo electrónico que identifica a su autor. Las firmas con mas de cinco líneas suelen estar muy mal vistas.

74) Software: Componentes intangibles (programas) de las computadoras. Complemento del hardware. El software más importante de una computadora es el Sistema Operativo.

75) Talk (Hablar): Protocolo que permite a dos personas conectadas a computadoras situados en dos lugares distintos comunicar por escrito entre si en tiempo real. Bajo ambiente UNIX.

76) TCP/IP: Protocolo de control de transmisiones/Protocolo Internet. Es el protocolo estándar de comunicaciones en red utilizado para conectar sistemas informáticos a través de Internet.

77) Transferir: Trasladar programas o datos de equipos informáticos a dispositivos conectados, normalmente de servidores a PCs.

78) Transmission Control Protocol/Internet Protocol (TCP/IP): (Protocolo de Control de Transmisión/Protocolo Internet): Sistema de protocolos, definidos en RFC 793, en los que se basa buena parte de Internet. El primero se encarga de dividir la información en paquetes en origen, para luego recomponerla en destino, mientras que el segundo se responsabiliza de dirigirla adecuadamente a través de la red.

79) URL (Universal Resource Locator): Localizador Universal de Recursos. Sistema unificado de identificación de recursos en la red. Las direcciones se componen de protocolo, FQDN y dirección local del documento dentro del servidor.

80) USB (Universal Serial Bus): Es una interfase de tipo plug & play entre una computadora y ciertos dispositivos, por ejemplo, teclados, teléfonos, escáners e impresoras.

81) Virus: Pequeños programas de computadora que tienen la capacidad de autoduplicarse y parasitar en otros programas. Una vez que se difunden, los virus se activan bajo determinadas circunstancias y, en general, provocan algún daño o molestia.

82) Wide Area Network (Red de área amplia): Una red generalmente construida con líneas en serie que se extiende a distancias mayores a un kilómetro.

83) WAP (Wireless Application Protocol): Norma internacional para aplicaciones que utilizan la comunicación inalámbrica, por ejemplo el acceso a Internet desde un teléfono celular.

84) World Wide Web (WWW o 3W): Conjunto de servidores que proveen información organizada en sites, cada uno con cierta cantidad de páginas relacionadas. La Web es una forma novedosa de organizar toda la información existente en Internet a través de un mecanismo de acceso común de fácil uso, con la ayuda del hipertexto y la multimedia. 


Terminos Cumputacionales-Electronicos:

85) AC (corriente alterna): Es la intensidad de corriente con la que cuentan los hogares y trabajos en Chile. Su valor esta entre los 190-240 Volt, ya que es la alimentación  de corriente de cada equipo electrónico ( televisor, PC, etc..)


86) Condensador: Dispositivo capaz de almacenar energía en forma de campo eléctrico. Está formado por dos armaduras metálicas paralelas (generalmente de aluminio) separadas por un material dieléctrico.


87) DC (corriente continua): Es la intensidad de corriente interna con la que cuentan algunos equipos electrónicos. Requiere de una fuente o convertidor de corriente, la cual varia entre los 0-24 Volt.

88) Diodo: Un diodo es un componente electrónico de dos terminales que permite la circulación de la corriente eléctrica a través de él en un solo sentido. Este término generalmente se usa para referirse al diodo semiconductor, el más común en la actualidad; consta de una pieza de cristal semiconductor conectada a dos terminales eléctricos.

 89) Fuente de poder: Es un transformador de corriente eléctrica  ya sea AC-DC (corriente alterna a corriente continua) o DC-AC (corriente continua a corriente alterna).


90) LED: Un led1 (de la sigla inglesa LED: Light-Emitting Diode: ‘diodo emisor de luz’, también ‘diodo luminoso’) es un diodo semiconductor que emite luz. Se usan como indicadores en muchos dispositivos, y cada vez con mucha más frecuencia, en iluminación. Presentado como un componente electrónico en 1962, los primeros ledes emitían luz roja de baja intensidad, pero los dispositivos actuales emiten luz de alto brillo en el espectro infrarrojo, visible y ultravioleta.

91) Microcontrolador: Circuito integrado programable, capaz de ejecutar las órdenes grabadas en su memoria. Está compuesto de varios bloques funcionales, los cuales cumplen una tarea específica. Un microcontrolador incluye en su interior las tres principales unidades funcionales de una computadora: unidad central de procesamiento, memoria y periféricos de entrada/salida.


92) Puerta SÍ o Buffer: La puerta lógica SÍ, realiza la función booleana igualdad. En la práctica se suele utilizar como amplificador de corriente o como seguidor de tensión, para adaptar impedancias (buffer en inglés).

93) Puerta AND: La puerta lógica Y, más conocida por su nombre en inglés AND (), realiza la función booleana de producto lógico. Su símbolo es un punto (·), aunque se suele omitir. Así, el producto lógico de las variables A y B se indica como AB, y se lee A y B o simplemente A por B.

94) Puerta OR: La puerta lógica O, más conocida por su nombre en inglés OR (), realiza la operación de suma lógica.

95) Puerta OR-exclusiva (XOR): La puerta lógica OR-exclusiva, más conocida por su nombre en inglés XOR, realiza la función booleana A'B+AB'. Su símbolo es el más (+) inscrito en un círculo.

 96) Puerta NO (NOT): La puerta lógica NO (NOT en inglés) realiza la función booleana de inversión o negación de una variable lógica. Una variable lógica A a la cual se le aplica la negación se pronuncia como "no A" o "A negada".

97) Puerta NO-Y (NAND): La puerta lógica NO-Y, más conocida por su nombre en inglés NAND, realiza la operación de producto lógico negado.

98) Resistencia: Se denomina resistor al componente electrónico diseñado para introducir una resistencia eléctrica determinada entre dos puntos de un circuito. En el propio argot eléctrico y electrónico, son conocidos simplemente como resistencias.

99) Transistor: Dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término «transistor» es la contracción en inglés de transfer resistor («resistencia de transferencia»).


100) Triac: O Triodo para Corriente Alterna es un dispositivo semiconductor, de la familia de los tiristores. La diferencia con un tiristor convencional es que éste es unidireccional y el TRIAC es bidireccional. De forma coloquial podría decirse que el TRIAC es un interruptor capaz de conmutar la corriente alterna.


Antecedentes Personales