martes, 23 de junio de 2015

Pseudocodigo

Pseudocodigo


El pseudocódigo (o falso lenguaje) es una descripción de alto nivel compacta e informal1 del principio operativo de un programa informático u otro algoritmo.

Utiliza las convenciones estructurales de un lenguaje de programación real,2 pero está diseñado para la lectura humana en lugar de la lectura mediante máquina, y con independencia de cualquier otro lenguaje de programación. Normalmente, el pseudocódigo omite detalles que no son esenciales para la comprensión humana del algoritmo, tales como declaraciones de variables, código específico del sistema y algunas subrutinas. El lenguaje de programación se complementa, donde sea conveniente, con descripciones detalladas en lenguaje natural, o con notación matemática compacta. Se utiliza pseudocódigo pues este es más fácil de entender para las personas que el código del lenguaje de programación convencional, ya que es una descripción eficiente y con un entorno independiente de los principios fundamentales de un algoritmo. Se utiliza comúnmente en los libros de texto y publicaciones científicas que se documentan varios algoritmos, y también en la planificación del desarrollo de programas informáticos, para esbozar la estructura del programa antes de realizar la efectiva codificación.

No existe una sintaxis estándar para el pseudocódigo, aunque los ocho IDE's que manejan pseudocódigo tengan su sintaxis propia. Aunque sea parecido, el pseudocódigo no debe confundirse con los programas esqueleto que incluyen código ficticio, que pueden ser compilados sin errores. Los diagramas de flujo y UML pueden ser considerados como una alternativa gráfica al pseudocódigo, aunque sean más amplios en papel.

Descomprimir

Descomprimir


Descomprimir es el proceso inverso a comprimir. En general, la información comprimida debe primero descomprimirse para que pueda ser accedida, leída o modificada. En general, los archivos comprimidos pueden descomprimirse con el mismo programa que se usó para comprimirlos. Por ejemplo, los archivos comprimidos .zip ó .rar, pueden descomprimirse con WinRAR, WinZip o programas similares.

Desencriptacion

Desencriptacion


La desencriptación (correctamente: descifrado) es el proceso contrario a la encriptación, mediante el cual un criptograma es transformado en el texto plano que le dio origen. En la mayoría de los métodos o algoritmos de encriptación para que la desencriptación sea exitosa es necesario poseer una clave, ya sea pública o privada que asegura que quién realiza el proceso está acreditado para tener acceso a la información original.

Cookie

Cookie


Una cookie (o galleta informática) es una pequeña información enviada por un sitio web y almacenada en el navegador del usuario, de manera que el sitio web puede consultar la actividad previa del usuario.

Sus principales funciones son:

Llevar el control de usuarios: cuando un usuario introduce su nombre de usuario y contraseña, se almacena una cookie para que no tenga que estar introduciéndolas para cada página del servidor. Sin embargo, una cookie no identifica a una persona, sino a una combinación de computador-navegador-usuario.

Conseguir información sobre los hábitos de navegación del usuario, e intentos de spyware (programas espía), por parte de agencias de publicidad y otros. Esto puede causar problemas de privacidad y es una de las razones por la que las cookies tienen sus detractores.

Originalmente, solo podían ser almacenadas por petición de un CGI desde el servidor, pero Netscape dio a su lenguaje Javascript la capacidad de introducirlas directamente desde el cliente, sin necesidad de CGIs. En un principio, debido a errores del navegador, esto dio algunos problemas de seguridad. Las cookies pueden ser borradas, aceptadas o bloqueadas según desee, para esto solo debe configurar convenientemente el navegador web.

Memoria Caché

Memoria Caché


En informática, la caché es la memoria de acceso rápido de una computadora, que guarda temporalmente los datos recientemente procesados (información).

La memoria caché es un búfer especial de memoria que poseen las computadoras, que funciona de manera similar a la memoria principal, pero es de menor tamaño y de acceso más rápido. Es usada por el microprocesador para reducir el tiempo de acceso a datos ubicados en la memoria principal que se utilizan con más frecuencia.

La caché es una memoria que se sitúa entre la unidad central de procesamiento (CPU) y la memoria de acceso aleatorio (RAM) para acelerar el intercambio de datos.

Código de Fuentes

Código de Fuentes


El código fuente de un programa informático (o software) es un conjunto de líneas de texto que son las instrucciones que debe seguir la computadora para ejecutar dicho programa. Por tanto, en el código fuente de un programa está escrito por completo su funcionamiento.

El código fuente de un programa está escrito por un programador en algún lenguaje de programación, pero en este primer estado no es directamente ejecutable por la computadora, sino que debe ser traducido a otro lenguaje o código binario; así será más fácil para la máquina interpretarlo (lenguaje máquina o código objeto que sí pueda ser ejecutado por el hardware de la computadora). Para esta traducción se usan los llamados compiladores, ensambladores, intérpretes y otros sistemas de traducción.

El término código fuente también se usa para hacer referencia al código fuente de otros elementos del software, como por ejemplo el código fuente de una página web que está escrito en lenguaje de marcado HTML o en Javascript, u otros lenguajes de programación web, y que es posteriormente ejecutado por el navegador web para visualizar dicha página cuando es visitada.

El área de la informática que se dedica a la creación de programas, y por tanto a la creación de su código fuente, es la programación.

Boolean

Boolean


El tipo de dato lógico o booleano es en computación aquel que puede representar valores de lógica binaria, esto es 2 valores, valores que normalmente representan falso o verdadero. Se utiliza normalmente en la programación, estadística, electrónica, matemáticas (Álgebra booleana), etc.

Para generar un dato o valor lógico a partir de otros tipos de datos, típicamente, se emplean los operadores relacionales (u operadores de relación), por ejemplo: 0 es igual a falso y 1 es igual a verdadero

(3>2)= 1 = verdadero

(7>9)= 0 = falso

Una vez se dispone de uno o varios datos de tipo booleano, estos se pueden combinar en expresiones lógicas mediante los operadores lógicos (Y, O, NO, …). Un ejemplo de este tipo de expresiones serían:

verdadero Y falso → falso

falso O verdadero → verdadero

NO verdadero → falso

ASCII

ASCII


ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información), pronunciado generalmente [áski] o [ásci] , es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

Algoritmo

Algoritmo


Un algoritmo (del griego y latín, dixit algorithmus y este a su vez del matemático persa es un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien deba realizar dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de la algoritmia.

Base de Datos


Base de Datos


Se le llama base de datos a los bancos de información que contienen datos relativos a diversas temáticas y categorizados de distinta manera, pero que comparten entre sí algún tipo de vínculo o relación que busca ordenarlos y clasificarlos en conjunto.

Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, y por ende se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.

Las bases de datos pueden clasificarse de varias maneras, de acuerdo al contexto que se esté manejando, la utilidad de las mismas o las necesidades que satisfagan.


Según la variabilidad de la base de datos

Bases de datos estáticas


Son bases de datos únicamente de lectura, utilizadas primordialmente para almacenar datos históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un conjunto de datos a través del tiempo, realizar proyecciones, tomar decisiones y realizar análisis de datos para inteligencia empresarial.


Bases de datos dinámicas


Son bases de datos donde la información almacenada se modifica con el tiempo, permitiendo operaciones como actualización, borrado y edición de datos, además de las operaciones fundamentales de consulta. Un ejemplo,puede ser la base de datos utilizada en un sistema de información de un supermercado.




Bases de datos bibliográficas


Sólo contienen un subrogante (representante) de la fuente primaria, que permite localizarla. Un registro típico de una base de datos bibliográfica contiene información sobre el autor, fecha de publicación, editorial, título, edición, de una determinada publicación, etc. Puede contener un resumen o extracto de la publicación original, pero nunca el texto completo, porque si no, estaríamos en presencia de una base de datos a texto completo (o de fuentes primarias —ver más abajo). Como su nombre lo indica, el contenido son cifras o números. Por ejemplo, una colección de resultados de análisis de laboratorio, entre otras.

Bases de datos de texto completo


Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas las ediciones de una colección de revistas científicas.
Un ejemplo son las guías telefónicas en formato electrónico.

Bases de datos o "bibliotecas" de información química o biológica


Son bases de datos que almacenan diferentes tipos de información proveniente de la química, las ciencias de la vida o médicas. Se pueden considerar en varios subtipos:
Las que almacenan secuencias de nucleótidos o proteínas.
Las bases de datos de rutas metabólicas.
Bases de datos de estructura, comprende los registros de datos experimentales sobre estructuras 3D de biomoléculas-
Bases de datos clínicas.
Bases de datos bibliográficas (biológicas, químicas, médicas y de otros campos): PubChem, Medline, EBSCOhost.

Lenguaje de Programación

Lenguaje de Programación


Un lenguaje de programación es un lenguaje formal diseñado para expresar procesos que pueden ser llevados a cabo por máquinas como las computadoras.

Pueden usarse para crear programas que controlen el comportamiento físico y lógico de una máquina, para expresar algoritmos con precisión, o como modo de comunicación humana.

Está formado por un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones. Al proceso por el cual se escribe, se prueba, se depura, se compila y se mantiene el código fuente de un programa informático se le llama programación.

También la palabra programación se define como el proceso de creación de un programa de computadora, mediante la aplicación de procedimientos lógicos, a través de los siguientes pasos:
  • El desarrollo lógico del programa para resolver un problema en particular. 
  • Escritura de la lógica del programa empleando un lenguaje de programación específico (codificación del programa). 
  • Ensamblaje o compilación del programa hasta convertirlo en lenguaje de máquina. 
  • Prueba y depuración del programa. 
  • Desarrollo de la documentación.

Intranet

Intranet

Una intranet es una red informática que utiliza la tecnología del Protocolo de Internet para compartir información, sistemas operativos o servicios de computación dentro de una organización. Este término se utiliza en contraste con Extranet, una red entre las organizaciones, y en su lugar se refiere a una red dentro de una organización. A veces, el término se refiere únicamente a la organización interna del sitio web , pero puede ser una parte más extensa de la infraestructura de tecnología de la información de la organización, y puede estar compuesta de varias redes de área local. El objetivo es organizar el escritorio de cada individuo con mínimo costo, tiempo y esfuerzo para ser más productivo, rentable, oportuno, seguro y competitivo.




Software de Intranet

  • Autonomy Corporation 
  • Atlassian Confluence 
  • Bitrix24 
  • Drupal 
  • eXo Platform 
  • Google Sites 
  • IBM Websphere 
  • Hyperoffice 
  • Jive Software 
  • Joomla 
  • Liferay 
  • Lotus Notes 
  • Microsoft SharePoint 
  • OpenText 
  • Oracle Fusion Middleware 
  • Plone (software) 
  • SAP NetWeaver Portal 
  • Sitecore 
  • ThoughtFarmer 
  • Yammer

Internet

Internet


Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen funcionen como una red lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como Arpanet, entre tres universidades en California, en Utah y en Estados Unidos. El género de la palabra Internet es ambiguo según el Diccionario de la lengua española de la Real Academia Española


Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA, las siglas en inglés de la Defense Advanced Research Projects Agency), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no solo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.

Origen


1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959.
1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de esta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases.
1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.
1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.

Memoria ram

Memoria RAM


La memoria de acceso aleatorio (Random-Access Memory, RAM) se utiliza como memoria de trabajo de computadoras para el sistema operativo, los programas y la mayor parte del software.

En la RAM se cargan todas las instrucciones que ejecutan la unidad central de procesamiento (procesador) y otras unidades de cómputo.

Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso secuencial) a la información de la manera más rápida posible.

Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de sonidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

Tipos de RAM:

Las dos formas principales de RAM moderna son:
SRAM (Static Random Access Memory), RAM estática, memoria estática de acceso aleatorio.

volátiles.
no volátiles:
  • NVRAM (non-volatile random access memory), memoria de acceso aleatorio no volátil 
  • MRAM (magnetoresistive random-access memory), memoria de acceso aleatorio magnetorresistiva o magnética 
  • DRAM (Dynamic Random Access Memory), RAM dinámica, memoria dinámica de acceso aleatorio.  
  • DRAM Asincrónica (Asynchronous Dynamic Random Access Memory, memoria de acceso aleatorio dinámica asincrónica) 
  • FPM RAM (Fast Page Mode RAM) 
  • EDO RAM (Extended Data Output RAM) 
  • SDRAM (Synchronous Dynamic Random-Access Memory, memoria de acceso aleatorio dinámica sincrónica) 
  • RDRAM (Rambus Dynamic Random Access Memory) 
  • XDR DRAM (eXtreme Data Rate Dynamic Random Access Memory) 
  • XDR2 DRAM (eXtreme Data Rate two Dynamic Random Access Memory) 
  • SDR SDRAM (Single Data Rate Synchronous Dynamic Random-Access Memory, SDRAM de tasa de datos simple) 
  • DDR SDRAM (Double Data Rate Synchronous Dynamic Random-Access Memory, SDRAM de tasa de datos doble) 
  • DDR2 SDRAM (Double Data Rate type two SDRAM, SDRAM de tasa de datos doble de tipo dos) 
  • DDR3 SDRAM (Double Data Rate type three SDRAM, SDRAM de tasa de datos doble de tipo tres) 
  • DDR4 SDRAM (Double Data Rate type four SDRAM, SDRAM de tasa de datos doble de tipo cuatro) 

Sistemas operativos


Sistemas Operativos


Un sistema operativo (SO o, frecuentemente, OS —del inglés Operating System—) es un programa o conjunto de programas de un sistema informático que gestiona los recursos de hardware y provee servicios a los programas de aplicación, ejecutándose en modo privilegiado respecto de los restantes (aunque puede que parte de él se ejecute en espacio de usuario.

Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento.

Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac. Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer.


Computación

Computación


El término computación tiene su origen en el vocablo en latín computatio. Esta palabra permite abordar la noción de cómputo como cuenta o cálculo, pero se usa por lo general como sinónimo de informática (del francés informatique). De esta manera, puede decirse que la computación nuclea a los saberes científicos y a los métodos.

Estos sistemas automatizados de información se consiguen a través de herramientas determinadas que han sido creadas para dicho fin, los ordenadores o computadoras.











El origen de la computación, dicen los expertos, se remonta a más de trescientos años atrás, cuando comenzaron a elaborarse maquinarias enfocadas en diversas tareas de cálculo. En 1623, Wilhelm Schickard inventó la primera calculadora mecánica.

Sin embargo, las computadoras capaces de realizar múltiples procesos (o sea, que no se limitaban a los cálculos de tipo matemático) comenzaron a surgir en la década del ’40. El uso masivo y doméstico de estas máquinas llegaría recién en los ’80, con la producción de las computadoras personales o PC. El fin del siglo XX, con el auge de Internet, representó un nuevo impulso para todo lo relacionado con las ciencias de la computación.





En la actualidad, el desarrollo de la computación y de las tecnologías relacionadas ha permitido la elaboración de diversos tipos de documentos, el envío y la recepción de correo electrónico, la creación de dibujos digitales, la edición de audio y la impresión de libros, entre muchos otros procesos.




Cabe señalar que la tecnología utilizada en computación es de tipo microelectrónica con componentes físicos (procesador, memoria, etc.) y lógicos (sistema operativo y programas).