Es la aplicación de autoedición o DTP (por DeskTop Publishing en inglés) de Microsoft Corporatión. A menudo es considerado como un programa para principiantes o de «nivel de entrada» (entry level), que difiere del procesador de textos Microsoft Word
en que se hace hincapié (que se refuerza) en el diseño y la maquetación
de las páginas, más que en el proceso y corrección de textos.
Características
Microsoft Publisher es un programa que provee un historial simple de edición similar al de su producto hermano Word, pero a diferencia de Adobe InDesign y Adobe InCopy, no proporciona una posibilidad integrada (built-in) de manejo de código XML.
Ayuda a crear, personalizar y compartir con facilidad una amplia
variedad de publicaciones y material de marketing. Incluye una variedad
de plantillas, instaladas y descargables desde su sitio web, para
facilitar el proceso de diseño y edición.
Porción de mercado
Publisher tiene un plazo o cuota de mercado (market share) relativamente pequeña, en un segmento claramente dominado por Adobe InDesign, QuarkXPress y Corel Draw.
Esto se debe a que este editor ha sido históricamente menos querido o
deseado por parte de los centros gráficos o de impresión, en comparación
a las otras aplicaciones DTP recién mencionadas.
Además, su posición como una aplicación de «nivel de entrada» agrava
algunas de su limitaciones (sobre todo en sus versiones antiguas), como
las tipografías (fonts) no disponibles, o la imposibilidad de mostrar objetos incrustados (object embedding)
en otras computadoras (no obstante, Publisher provee de herramientas
para empaquetar múltiples archivos en un único archivo auto-extraíble, y
así lidiar con este problema). Algunas típicas características de una
aplicación de alto nivel de este tipo, como las transparencias, el
sombreado de objetos o la exportación directa a formato PDF no son funcionales o directamente no están soportadas (sobre todo, en las versiones más viejas del software).
Sin embargo, las versiones recientes del producto tienen una mayor
capacidad en relación a la separación y el procesamiento de varios
(niveles de) colores. Microsoft Publisher 2007 también incluye la capacidad para la exportación de archivos en formato PDF, con la posibilidad de incluir o incrustar (embed) las propias fuentes tipográficas dentro de ellos (garantizando así su fiel reproducción en computadoras que no tienen instaladas demasiadas fonts, particularmente aquellas que no son tan populares). No obstante, esta característica está disponible como una descarga (download) adicional desde el sitio web de Microsoft.
El formato de archivo propietario de Publisher no es soportado por la mayoría de las otras aplicaciones, con la única excepción de Adobe PageMaker. No obstante, el plug-in PUB2ID (Publisher to InDesign) de Markzware's convertirá documentos de Publisher de sus versiones 2002 hasta 200 a los formatos CS2 y CS3 de Adobe InDesign. Asimismo, Publisher soporta otros formatos como el EMF (Enhanced Metafile, «meta-archivo mejorado»), el cual está relativamente difundido en la plataforma Windows.
Publisher está incluido entre la gama alta de los programas de Microsoft Office.
Esto refleja el énfasis de Microsoft de posicionar su producto como una
alternativa relativamente barata a los dos «pesos pesados» de la
industria. También está enfocado al mercado de las pequeñas empresas,
las cuales usualmente no disponen de profesionales específicamente
dedicados al diseño y maquetación de páginas y documentos.
Es la aplicación de un enfoque sistemático, disciplinado y
cuantificable al desarrollo, operación y mantenimiento de software (IEEE
1993) , y el estudio de estos enfoques, es decir, la aplicación de la
ingeniería al software. Integra matemáticas, ciencias de la computación y prácticas cuyos orígenes se encuentran en la ingeniería.
Se citan las definiciones más reconocidas, formuladas por prestigiosos autores:
Ingeniería de software es el estudio de los principios y
metodologías para el desarrollo y mantenimiento de sistemas software
(Zelkovitz, 1978).
Ingeniería de software es la aplicación práctica del conocimiento
científico al diseño y construcción de programas de computadora y a la
documentación asociada requerida para desarrollar, operar y mantenerlos.
Se conoce también como desarrollo de software o producción de software
(Bohem, 1976).
La ingeniería de software trata del establecimiento de los
principios y métodos de la ingeniería a fin de obtener software de modo
rentable, que sea fiable y trabaje en máquinas reales (Bauer, 1972).
La ingeniería de software es la aplicación de un enfoque
sistemático, disciplinado y cuantificable al desarollo, operación, y
mantenimiento del software (IEEE, 1993).
En 2004, la U. S. Bureau of Labor Statistics (Oficina de Estadísticas
del Trabajo de Estados Unidos) contó 760 840 ingenieros de software de
computadora.
El término "ingeniero de software", sin embargo, se utiliza de manera
genérica en el ambiente empresarial, y no todos los que se desempeñan en
el puesto de ingeniero de software poseen realmente títulos de
ingeniería de universidades reconocidas.
Algunos autores consideran que "desarrollo de software" es un término
más apropiado que "ingeniería de software" para el proceso de crear
software. Personas comoPeteMcBreen
(autor de "Software Craftmanship") cree que el término IS implica
niveles de rigor y prueba de procesos que no son apropiados para todo
tipo de desarrollo de software.
Indistintamente se utilizan los términos "ingeniería de software" o "ingeniería del software"; aunque menos común también se suele referenciar como "ingeniería en software" En Hispanoamérica los términos más comúnmente usados son los dos primeros.
La creación del software es un proceso intrínsecamente creativo y la
ingeniería del software trata de sistematizar este proceso con el fin de
acotar el riesgo del fracaso en la consecución del objetivo, por medio
de diversas técnicas que se han demostrado adecuadas en base a la
experiencia previa.
La IS se puede considerar como la ingeniería aplicada al software,
esto es, por medios sistematizados y con herramientas preestablecidas,
la aplicación de ellos de la manera más eficiente para la obtención de
resultados óptimos; objetivos que siempre busca la ingeniería. No es
sólo de la resolución de problemas, sino más bien teniendo en cuenta las
diferentes soluciones, elegir la más apropiada.
Cuando aparecieron las primeras computadoras digitales en la década de 1940,
el desarrollo de software era algo tan nuevo que era casi imposible
hacer predicciones de las fechas estimadas de finalización del proyecto y
muchos de ellos sobrepasaban los presupuestos y tiempo estimados.. Los
desarrolladores tenían que volver a escribir todos sus programas para
correr en máquinas nuevas que salían cada uno o dos años, haciendo
obsoletas las ya existentes.
El término Ingeniería del software apareció por primera vez en a
finales de la década de 1950. La Ingeniería de software fue estimulada
por la crisis del software
de las décadas de entre 1960 y 1980. La Ingeniería del software viene a
ayudar a identificar y corregir mediante principios y metodologías los
procesos de desarrollo y mantenimiento de sistemas de software.
Aparte de la crisis del software
de las décadas de entre 1960 y 1980, la ingeniería de software se ve
afectada por accidentes que conllevaron a la muerte de tres personas;
esto sucedió cuando la máquina de radioterapia Therac-25 emite una sobredosis masiva de radiación y afecto contra la vida de estas personas. Esto remarca los riesgos de control por software, afectando directamente al nombre de la ingeniería de software.
A principios de los 1980, la ingeniería del software ya había surgido como una genuina profesión, para estar al lado de las ciencias de la computación
y la ingeniería tradicional. Antes de esto, las tareas eran corridas
poniendo tarjetas perforadas como entrada en el lector de tarjetas de la
máquina y se esperaban los resultados devueltos por la impresora.
La administración de redes es un conjunto de técnicas tendientes a mantener una red operativa,
eficiente, segura, constantemente monitoreada y con una planeación
adecuada y propiamente documentada.
Sus objetivos
son:
Mejorar la continuidad en la operación de red la con
mecanismos adecuados de control y
monitoreo, de resolución de problemas y
de suministro de recursos.
Hacer uso eficiente de la red y utilizar mejor los
recursos, como por ejemplo, el ancho de banda.
Reducir costos por
medio del control de gastos y de
mejores mecanismos de cobro.
Hacer la red mas segura, protegiéndola contra
el acceso no autorizado, haciendo imposible que personas ajenas
puedan entender la información que circula en
ella.
Controlar cambios y actualizaciones en la red de modo
que ocasionen las menos interrupciones posibles, en el servicio a
los usuarios.
La administración de la red se vuelve
más importante y difícil si se considera que las
redes actuales comprendan lo siguiente:
Mezclas de diversas señales, como voz, datos, imagen y gráficas
Interconexiónde varios tipos de
redes, como WAN, LAN y
MAN.
El uso de múltiples medios de comunicación, como par trenzado, cable
coaxial, fibra óptica, satélite, láser,
infrarrojo y microondas.
Diversos protocolos
de comunicación, incluyendo TCP/IP
SPX/IPX, SNA, OSI
El empleo de
muchos sistemas operativos, como DOS, Netware, windows NT
UNÍS, OS/2.
Diversas arquitecturas de red, incluyendo ethernet 10
base T, Fast Ethernet, Token Ring, FDDI, 100vg-Any Lan y Fiber
channel.
Varios métodos de compresión, códigos de línea,
etc...
El sistema de administración de red opera
bajo los siguientes pasos básicos:
1.- Colección de información acerca del estado de la
red y componentes del sistema. La
información recolectada de los recursos debe incluir:
eventos,
atributos y acciones
operativas.
2.- Transformación de la información para
presentarla en formatos apropiados para el entendimiento del administrador.
3.- Transportación de la información del
equipo monitoreado al centro de control.
4.-Almacenamiento de
los datos coleccionados en el centro de control.
5.- Análisis de parámetros para obtener
conclusiones que permitan deducir rápidamente lo que pasa
en la red.
6.- Actuación para generar acciones
rápidas y automáticas en respuesta a una falla
mayor.
La característica fundamental de un sistemas de
administración de red moderno es la de ser un sistema
abierto, capaz de manejar varios protocolos y lidiar con varias
arquitecturas de red. Esto quiere decir: soporte para los
protocolos de red más importantes.
ELEMENTOS INVOLUCRADOS EN LA ADMINISTRACION DE RED
SON:
Objetos: son los elementos de más bajo nivel y
constituyen los aparatos administrados.
Agentes: un programa o
conjunto de programas que
colecciona información de administración del
sistema en un nodo o elemento de la red. El agente genera el
grado de administración apropiado para ese nivel y
transmite información al administrador central de la red
acerca de:
Notificación de problemas.
Datos de diagnóstico
Identificador del nodo.
Características del nodo.
Administrador del sistema: Es un conjunto de
programas ubicados en un punto central al cual se dirigen los
mensajes que requieren acción o que contienen información
solicitada por el administrador al agente.
Es una persona que tiene como objetivo
mantener segura la red ya sea a nivel de hardware o a nivel
de software.
Las responsabilidades de un administrador de red
quizás son sin duda uno de los grandes piares dentro de lo
que comprende la adminitración de redes de comunicaciones
El administrador de red tiene la responsabilidad
de:
Mantener al sistema de red seguro.
Realizar una copia de seguridad diaria de los datos
más importantes y realizar una más prolongada de
los datos menos relevantes.
Estar en constante comunicación con el personal
dentro de la empresa y más si este personal es de su misma
área como los técnicos que brindan soporte en computación a nivel de hardware o software.
Brindar el correcto mantenimiento a la parte física de la red y en caso de reparación informar
del problema inmediatamente.
Estar pendiente de los posibles fallos dentro de la red
y si se presenta alguna solucionarlo de manera eficaz y
rápida.
Jamás revelar información de los usuarios
dentro o fuera de la empresa.
Establecer que usuarios o departamentos tienen acceso a
información confidencial que almacena el administrador de
red dentro de los servidores de la empresa.
Establecer las mayores medidas de seguridad para
así mantener la información contenida en los
servidores la más protegida posible utilizada los métodos más avanzados para el propósito
(detección de huellas dactilares, codificación de
retina única, tarjeta perforada con pulsaciones
electromagnéticas que detecta el sistema lector de
tarjetas…)
Deberá establecer cuales ordenadores hacen la función de servidores y cuales hacen función de
estaciones clientes.
Deberá tomar las precauciones necesarias para
evitar el intrusismo o hacking.
Este tema es de suma importancia o el
más importante y que se debe tener en cuenta a la hora de
crear una red de comunicación.Se debe considerar que la
seguridad de una red garantiza la confidencialidad de la
información que almacene en sus servidores.en la
actualidad hay muchos métodos para mantener a la red
protegida.Veamos cuales son las más importantes
Tenemos métodos que garantizan que
la información del usuario/cliente estará dentro de
una base de datos protegida por claves de acceso con la que solo
contaran ciertos usuarios.
Se deberá mantener una copia de
seguridad o backup de manera que en caso de fallo del sistema la
información estará almacenada en un servidor remoto
o un servidor a prueba de fallos.
Es necesario mantener la relación
con el personal de diferentes campos dentro de la
organización e instruirles a tomar medidas correctas en
caso de un fallo del sistema, fallos eléctricos o ataques
masivos de hackers.
Los sistemas de acceso a los servidores deberán
estar encriptados o codificados a la hora de que pasen de
estación de trabajo al servidor o por el contrario del
servidor a la estación de trabajo.
Se deberán establecer los protocolos más
avanzados y que aseguren que los paquetes enviados a
través de la red local (LAN) no sean interceptados por
intrusos.
El administrador de red debe de asignar los nombres y
las direcciones para los ordenadores que estén conectados
dentro de la red mediante técnicas avanzadas como es el
direccionamiento único para ordenadores como las IPs que
cada ordenar tendrá y será una numeración
alfanumérica única.
Un sistema de información es un conjunto de elementos orientados al tratamiento y administración de datos e información, organizados y listos para su uso posterior, generados para cubrir una necesidad o un objetivo. Dichos elementos formarán parte de alguna de las siguientes categorías:
Personas;
Datos;
Actividades o técnicas de trabajo;
Recursos materiales en general (generalmente recursos informáticos y de comunicación, aunque no necesariamente).
Todos estos elementos interactúan para procesar los datos (incluidos los procesos manuales y automáticos) y dan lugar a información más elaborada, que se distribuye de la manera más adecuada posible en una determinada organización, en función de sus objetivos. Si bien la existencia de la mayor parte de sistemas de información son de conocimiento público, recientemente se ha revelado que desde finales del siglo XX diversos gobiernos han instaurado sistemas de información deespionaje de carácter secreto.
Habitualmente el término se usa de manera errónea como sinónimo de sistema de información informático, en parte porque en la mayoría de los casos los recursos materiales de un sistema de información están constituidos casi en su totalidad por sistemas informáticos. Estrictamente hablando, un sistema de información no tiene por qué disponer de dichos recursos (aunque en la práctica esto no suela ocurrir). Se podría decir entonces que los sistemas de información informáticos son una subclase o un subconjunto de los sistemas de información en general.
El término sistemas de información hace referencia a un concepto genérico que tiene diferentes significados según el campo del conocimiento al que se aplique dicho concepto, a continuación se enumeran algunos de dichos campos y el sentido concreto que un Sistema de Información tiene en ese campo:
GENERALIDADES
En informática, un sistema de información es cualquier sistema computacional que se utilice para obtener, almacenar, manipular, administrar, controlar, procesar, transmitir o recibir datos, para satisfacer una necesidad de información.
En teoría de sistemas, un sistema de información es un sistema, automatizado o manual, que abarca personas, máquinas, y/o métodos organizados de recolección de datos, procesamiento, transmisión y diseminación de datos que representa información para el usuario.
En seguridad computacional un sistema de información está descrito por tres componentes:1
Estructura:
Interfaces, que permiten el intercambio de información con el mundo no digital, tales como teclados, altavoces, monitores, escáneres, impresoras, etc.
Repositorios, que almacenan los datos permanente o temporalmente, tales como "buffers",RAM (memoria de acceso aleatorio), discos duros, caché, etc.
Canales, que conectan los repositorios entre sí, tales como "buses", cables, enlaces inalámbricos, etc. Una red de trabajo es un conjunto de canales físicos y lógicos.
Comportamiento:
Servicios, los cuales proveen algún valor a los usuarios o a otros servicios mediante el intercambio de mensajes.
Mensajes, que acarrean un contenido o significado hacia los usuarios internos o servicios.
En geografía y cartografía, un Sistema de informaciónGeográfica (SIG) se utiliza para integrar, almacenar, editar, analizar, compartir y desplegar información georeferenciada. Existen muchas aplicaciones de SIG, desde ecología y geología, hasta las ciencia sociales.
En representación del conocimiento, un sistema de información consiste de tres componentes: humano, tecnológico y organizacional. Bajo esta perspectiva, información se define en términos de tres niveles de semíostica. Datos que pueden ser procesados automáticamente por un sistema de aplicaciones corresponden al nivel de sintaxis. En el contexto de un individuo que interpreta los datos, estos son convertidos en información, lo que corresponde al nivel semántico. La información se convierte en conocimiento cuando un individuo conoce (entiende) y evalúa la información (por ejemplo para una tarea específica), esto corresponde al nivel pragmático.
En matemáticas dentro de la teoría de los dominios, un sistema de informaciónscott (por su inventor DanaScott) es una estructura matemática que provee una representación alternativa de un dominio Scott, como un caso especial, algebraiclattices.
En matemáticas teoría de conjunto difuso, un sistema de información es un sistema de atributovalor
En sociología los sistemas de información son sistemas sociales cuyo comportamiento está fuertemente influenciado por los objetivos, valores y creencias de los individuos y grupos, así como por el desempeño de la tecnología.Actividades de un Sistema de Información Hay tres actividades en un sistema de información que producen la información que esas organizaciones necesitan para tomar decisiones, controlar operaciones, analizar problemas y crear nuevos productos o servicios. Estas actividades son.
Entradas
Procesamiento
SalidaTipos de sistemas de información Debido a que el principal uso que se da a los SI es el de optimizar el desarrollo de las actividades de una organización con el fin de ser más productivos y obtener ventajas competitivas, en primer término, se puede clasificar a los sistemas de información en: Sistemas Competitivos Sistemas Cooperativos Sistemas que modifican el estilo de operación del negocio
Esta clasificación es muy genérica, y en la práctica no obedece a una diferenciación real de sistemas de información reales, ya que en la práctica podríamos encontrar alguno que cumpla varias (dos o las tres) de las características anteriores. En los subapartados siguientes se hacen unas clasificaciones más concretas (y reales) de sistemas de información.
Duro de Matar IV, una película protagonizada por Bruce
Willis (2007)― cuando parte de lo que se está viendo muestra, por
ejemplo, un centro financiero, un laboratorio científico o actividades
de la industria cinematográfica. Por el contrario, no muchos habrán
observado varios monitores por computadora en las tareas habituales que
se llevan a cabo en las casas y en las empresas. Hasta ahora, al menos.
La utilización de computadoras con varios monitores no es un
fenómeno reciente. Es posible que muchos lectores lo hayan comprobado en
las imágenes que presentan la televisión y el cine ―tal sería el caso
de
La literatura a la que tuve acceso, la mayor parte de la cual fue
publicada en los primeros años de este siglo, se refería por lo general a
los aspectos técnicos que posibilitaban trabajar con una computadora y
dos o tres monitores. Se mencionaba, por ejemplo, el hardware necesario,
cómo instalarlo, las distintas marcas y sus respectivos beneficios e
inconvenientes, los costos asociados, el tamaño de los monitores y el
espacio que habrían de ocupar. Daba la impresión que se mezclaban,
sutilmente o no, discusiones técnicas con campañas de marketing.
¿Para qué querríamos dos o tres monitores? Un autor señaló lo siguiente:
Existen dos buenas razones (además de tratar de
impresionar a amigos y compañeros de trabajo) para trabajar con una
computadora y tres monitores. La primera se refiere a una mejora en la
productividad como resultado de tener más ventanas abiertas en forma
simultánea. Todos los que utilizan dos monitores conocen los beneficios
de dedicar uno de éstos a las aplicaciones de correo electrónico y el
otro al buscador de Internet; o uno a Photoshop y el otro a las barras
de herramientas y de control.
La segunda razón señala que si bien el agregar un tercer monitor no
es un salto tan grande como pasar de uno a dos, seguramente es útil.
Permite, por ejemplo: a) tener una ventana de Explorer abierta, quizás
también con una aplicación simultánea de mensajes instantáneos; b)
dedicar la pantalla central al trabajo que se está haciendo en el
momento, tal como navegar en Internet, trabajar en Excel, escribir en
Word o editar en Photoshop; y c) mostrar en la tercera pantalla lo que
uno mira cada tanto, como ser correo electrónico, transferencia de
archivos o una ventana secundaria con otro buscador en la web. (J.
Cross, Seeing triple with theMatrox TripleHead2Go. ExtremeTech.com. Nueva York: 17 de abril de 2006)
Un artículo publicado en The New York Times global edition (M. Richtel, In Data Deluge., Multitaskers go to Multiscreens,
7 de febrero de 2012) contribuyó a sacar la discusión del mundo de los
especialistas y llevarla al público en general. El artículo comenzaba
describiendo lo que tal vez muchos lectores hayan experimentado; esto
es, que “quienes trabajan en la era digital se sienten a veces como si
estuvieran en medio de un videojuego, luchando contra un aluvión de
mensajes instantáneos y electrónicos, haciendo malabarismos con
documentos, sitios web y calendarios online. Como consecuencia, para
hacer frente a esta situación se han vuelto muy hábiles en el manejo del
mouse y se mueven entre docenas de ventanas superpuestas en un único monitor”.
El artículo mencionó que la nueva y creciente táctica para manejarse
con semejante cantidad de información consistía en agregar un segundo o
tercer monitor y recordó que mientras que en 2011 se vendieron 179
millones de monitores en el mundo, el número correspondiente a
computadoras desktop fue ese año de sólo 130 millones. También
dijo que, según una organización especializada, los monitores se están
agrandando. El monitor “promedio” vendido en el mundo era de 21
pulgadas, mientras que en 2007 era de 18.
No todos comparten la opinión de que varios monitores aumentan la
productividad. “Esto no es fácil de medir o probar porque depende del
tipo de trabajo que se haga y de si es necesario mirar constantemente
los múltiples flujos de información”. Por el contrario, “el multitasking
(1) puede afectar la productividad porque la gente interrumpe sus
pensamientos al mirar varios monitores en lugar de concentrarse en una
sola tarea”. Claro que otra manera de aumentar la productividad es
disminuir el aluvión de mensajes electrónicos. Según informa A. Gallo (Stop Email Overload.
Harvard Business Review Blogs, 21 de febrero de 2012), una empresa
inglesa se ha comprometido a prohibir para 2015 los mensajes
electrónicos internos, mientras que Volkswagen en Alemania ha accedido a
no enviar mensajes electrónicos a ciertos empleados después del horario
de trabajo.
Los próximos años dirán si el uso de dos o tres monitores se ha
popularizado y si el hecho de utilizar uno solo se convertirá en un
hábito anticuado. También, si varios monitores a la vez afectarán la
salud. Un autor contó que “el problema de utilizar dos monitores fue que
mi cuello me comenzó a doler de tanto mirar hacia delante o hacia la
derecha. Pensé que con un tercer monitor a mi izquierda movería mi
cabeza en varias direcciones y así evitaría cualquier dolor. Tenía otra
opción: dos monitores juntos delante de mí; pero no me gustaba la idea
porque mi campo visual natural, directamente delante de mí, habría de
desaparecer: siempre habría de estar mirando ligeramente hacia la
derecha o hacia la izquierda”. Tal como señalan los especialistas, el
esfuerzo que realiza la vista en estos casos es uno de los daños más
comunes que sufren los knowledge workers.
Nokia Achieve es un teléfono plegable que se abre para presentar dos pantallas tactiles. Al parecer Nokia, quiere fomentar la comunicación y el trabajo en equipo con este nuevo dispositivo. Para ello lanzará el Nokia Archive con un interfaz totalmente novedoso, varias formas de conexión que incluyen Wi-Fi, y un software para facilitar la comunicación y el trabajo en equipo.
2. Sony Ericsson Concept Phone
Con una cámara de 3,2 megapíxeles, una capacidad de almacenamiento de 2 GB, y un diseño exclusivo dentro de un dispositivo del tamaño de una tarjeta de crédito, Sony Ericsson trabaja en su modelo del futuro para darle la máxima exclusividad. Veremos cuando se lanza el Sony Ericsson Concept Phone.
3. Nokia Aeon
Nokia Aeon es uno de los modelos conceptuales del futuro en los que está trabajando la compañía finlandesa. Practicamente no se sabe nada acerca de él, ya que Nokia lo conserva en secreto. La característica más importante que se conoce del Nokia Aeon es su pantalla táctil, que parece estar inspirada en la linea que están investigando otras compañías de telefonía.
4. Tag de NEC
Tag es uno de los modelos futuristas en los que está trabajando NEC. Como podéis apreciar en las fotos se trata de una especie de cinturón flexible, que se puede adaptar a muchas posturas, de forma que sea más comoda la comunicación sin manos.
Una de las cosas que más llamó nuestra atención en el trailer de la cinta Ender’s Game, fue el auto que aparece en los primeros segundos del mismo. Hoy sabemos que este prototipo futurista fue diseñado por la firma alemana Audi y que ha sido bautizado como Fleet Shuttle Quattro. Este poderoso vehículo fue creado en su totalidad de manera virtual, exclusivamente para hacer su aparición en este largometraje, conservando los valores que tanto caracterizan a la casa automotriz. “El proceso de creación de este auto, fue muy similar al de un traje hecho a la medida. Se cuidaron todos los detalles”, apuntó Frank Rimili, encargado del proyecto. Tendremos que esperar hasta el próximo mes de octubre, para poder ver en la pantalla grande a este automóvil que parece extraído de nuestros más grandes sueños.
2. Jaguar C-X75
Tecnología derivada de la Fórmula 1 para un superdeportivo. El Jaguar C-X75 cuenta con un sistema de propulsión híbrido que combina un motor 1.6 de cuatro cilindros con sobrealimentación por compresor y turbo, que rinde una potencia de 502 CV. Junto a dos motores eléctricos que ofrecen 390 CV, la potencia conjunta es de 850 CV. Puede funcionar en modo eléctrico, con una autonomía de 60 km.
3. Lamborghini Egoista
Brutal y hedonista. Así es el regalo de cumpleaños que Walter da Silva, director de diseño de Grupo Volkswagen, y su equipo le dieron a Lamborghini en su aniversario 50. Inspirados en la fuerza del toro de lidia, las líneas del helicóptero de combate Apache y un jet caza, la firma italiana llevó su diseño al límite entre el exceso y la belleza. La fibra de carbono, las líneas imposibles y el contraste entre gris y naranja dominan el cuadro de este vehículo que, al parecer, nunca llegará a la línea de producción. Según Lamborghini: “este coche es como la tierra de nunca jamás, esa que nadie puede poseer, y que se quedará como un sueño para todos, para siempre". Su motor es un V12 5.2 litros de 600 caballos de fuerza, heredado del Gallardo. El Egoista hace referencia al poder que tiene su único pasajero.
Los autos del futuro
4. Mercedes-Benz GLA Concept
La revolución de la Fábrica de Sueños. Mercedes-Benz sigue la tendencia del mercado enfocada en camionetas compactas, ideales para sortear la urbe de asfalto y tener un fin de semana relajante. Pero va más allá. Este vehículo muestra claves del diseño que seguirán sus próximos lanzamientos. Un sistema de proyectores montados en el toldo iluminará la calle para avisar a los demás conductores sobre movimientos como cambios de carril. También podrán grabar video, ser desmontables para utilizarlas como videocámara y para proyectar películas en una pared o pantalla: un autocinema rodante. El interior enamora, aunque seguramente los asientos, las costuras y las salidas del aire con LED no estarán en el auto de producción. Muchos de los elementos del habitáculo son heredados de los Clase A y B, como la pantalla del sistema multimedia, el estéreo, el aire acondicionado y el tablero. La combinación de cuero con aluminio y plásticos transparentes muestran el carácter joven de este modelo, alejado de los grandes sedanes de lujo de la casa de Stuttgart.
5. Toyota i-Road
No es la primera vez que desde Japón llega un monoplaza de estas características, pero la apuesta de Toyota para la movilidad del futuro tiene un encanto especial. Con las ciudades cada vez más atestadas de autos, el peligro inminente de una motocicleta y los escasos lugares de estacionamiento, la firma japonesa propone un vehículo monoplaza con la agilidad de una moto y los beneficios de un automóvil. El i-Road no sólo se ve dinámico, es realmente un divertido intento de Toyota por hacer más alegres los traslados del día a día. Tiene un pequeño motor eléctrico de 5 caballos de fuerza que promete 50 kilómetros de autonomía, pero lo que más sorprende es su sistema de curveo. Buscando mejorar la estabilidad y el control en las curvas, la carrocería y la suspensión se inclinan para poder tener mejor maniobrabilidad y velocidad en el acto.
6. Subaru WRX Concept
La leyenda está cerca de escribir un nuevo capítulo en su brillante historia. Los apellidos WRX y STI pesan, y mucho, en Subaru, debido a que tienen en sus palmares victorias y campeonatos del Mundial de Rallies y millones de aficionados. Por ello este concept car ya puso a salivar a los amantes de las prestaciones y el manejo emocional. Para su nueva generación, este vehículo perderá el nombre Impreza, al que estuvo ligado desde su concepción en 1992. Su diseño, con la musculatura del cofre, las salpicaderas y la cajuela, no deja a nadie indiferente. Basado en la arquitectura Symmetrical All Wheel Drive de Subaru, el coche mantendrá el sello de la casa: motor boxer, tracción integral y la búsqueda del reparto igual de pesos del lado derecho e izquierdo del vehículo. El motor seguirá siendo un cuatro cilindros turbocargado, de ahí la entrada de aire en el cofre. Pero aunque faltan datos, seguro será un cohete.
7. Volkswagen Design Vision GTI
Más radical que nunca. Volkswagen tomó un nuevo motor V6 turbocargado de 503 caballos de fuerza y convirtió su deportivo más famoso en una máquina de carreras. Este concept abre la puerta para, a través de una edición limitada con esta configuración, revivir la historia del VR6, que tantos amantes tiene. Su estética muestra soluciones aerodinámicas interesantes como el ala lateral en la parte trasera, las enormes entradas de aire de la fascia y los faros dobles en la parte inferior con LEDs para iluminación diurna. Por dentro, la inspiración del mundo de las carreras está latente en todos lados, desde las cintas rojas para abrir las portezuelas, el volante recortado con detalles de fibra de carbono y dos interruptores (uno para encender el motor y el otro para elegir el modo de manejo), hasta la palanca de la transmisión más alta para hacer los cambios secuenciales más cómodamente. Un GTI lleno de testosterona.
8. MINI Vision
Anders Warming, responsable de MINI Design presentó el nuevo y futurista auto de la marca. Este compacto de lujo está diseñado para permitir salidas de aire en llantas, carrocería y alerón, logrando un auto veloz y muy aerodinámico en color naranja.
La idea en la que se basó el equipo de diseño es en la total comodidad de los pasajeros. Entre las características destacadas encontramos los asientos tipo lounge, las bandas de tejido elástico en las puertas, una caja fuerte y un sistema de manejo por colores que transforma el suelo en pantallas.
9. Acura NSX
Este deportivo del futuro de sistema híbrido y eléctrico es la gran hazaña de Honda.
Presentado en el Salón de Detroit este auto cuenta con dos motores de inyección directa y está fabricado con materiales ultraligeros. Esta máquina alcanza los 100km/h en 5 segundos.
10. Bugatti Veyron 16.4 Grand Sport Vitesse
Conjugando lo mejor de los modelos Grand Sport y Super Sport, este auto seduce a cualquiera gracias a su espectacular diseño exterior y el potente motor con el que cuenta. El Bugatti Veyron 16.4 va del 0 a los 100 km/hr en sólo 2.6 segundos, haciendo honor al nombre con el que fue bautizado (la palabra “vitesse” en significa en francés “velocidad" y "aceleración”). Con el objetivo de hacerlo más imponente y seguro, los ingenieros reconfiguraron el chasis del coche, con amortiguadores de rápida respuesta que hacen el frenado y la aceleración prácticamente imperceptibles. Para su interior, este potente vehículo contó con una mezcla de diversos materiales, como aluminio, magnesio y fibra de carbono, mientras que los asientos en piel le dan ese toque de elegancia que tanto caracteriza a la marca.
11. Bentley EXP 9F SUV
Siguiendo su línea y esencia, la casa automotriz presentó hace algunos meses su más reciente creación: la Bentley EXP 9 F SUV, la cual aparentemente se convertirá en la SUV más potente y lujosa del mercado. Diseñada por Dirk van Braeckel y presentada en el Geneva Motor Show, la firma anunció hace un par de días la inversión de cerca de 800 millones de libras para su fabricación, la cual se llevará a cabo en el Reino Unido. Con un diseño exterior modesto, pero con detalles interiores perfectos (que hasta podrían rayar en lo artístico) este poderoso y refinado vehículo de motor V8 estará a la venta a partir del año 2016.
Desde que Microsoft absorbió a finales de abril el negocio de móviles de Nokia, era cuestión de tiempo que la compañía de Redmond cambiara el nombre a los dispositivos de la compañía noruega. Ese momento ha llegado y el nombre de Nokia será sustituido por Microsoft Lumia.
La marca Nokia desaparece y sus móviles se llamarán Microsoft Lumia
Desde ahora, todos los teléfonos Lumia que presente Microsoft dejarán de llevar la marca Nokia que hasta el momento el gigante informático había mantenido.
La mayor parte de las apuestas enfocaban al nombre de Microsoft Lumia como el que elegiría Microsoft para renombrar a los smartphones Nokia. Y este nombre ha sido la apuesta ganadora.
La compañía comenzará poco a poco a modificar el nombre en las redes sociales aunque el proceso de cambio empezó hace ya un tiempo, cuando Microsoft comenzó a llamar a los teléfonos solo con el nombre de Lumia, obviando a Nokia. Lo mismo ha ocurrido con las aplicaciones donde poco a poco va desapareciendo la marca Nokia. De hecho, actualmente al entrar en la web de la compañía finlandesa, la página te indica que se están trasladando a un nuevo lugar, el portal de Microsoft.
Por su parte, Nokia se seguirá ocupando de servicios de mapas e infraestructuras. Sin ir más lejos, hoy mismo Nokia ha lanzado la aplicación Nokia here Maps para cualquier dispositvo Android, convirtiéndose en el gran rival de Google Maps.
Confirman en The Verge lo que ya hace unos meses se rumoreaba sobre la desaparición por completo de la marca Nokia y de paso de la distinción “Windows Phone” para los celulares que en su interior llevan el sistema operativo para móviles de Microsoft: La primera pasará a llamarse “Microsoft Lumia” y la segunda mantendrá simplemente el “Windows” -para mejorar la unificación entre versiones-.
Vale aclarar que no desaparecerá la firma en su totalidad sino que la división de Nokia encargada de la fabricación de los móviles Lumia, de hecho, la sección que finalmente fue adquirida por Microsoft hace unos meses, convergerá este par de títulos para establecerlos en una única marca llamada Microsoft Lumia. Así pues, todos los sitios web de Nokia (el sitio web principal, sus perfiles en redes sociales, espacios publicitarios, etc.) y los próximos móviles manufacturados por dicha división prontos a lanzarse en el mercado, en particular, los que se vienen para las festividades de fin de año, cambiarán a la nueva denominación.
El proceso será gradual y parece haber iniciado en territorio francés pues una publicación de la -hasta ahora- Nokia France en Facebook, anuncia el pronto cambio que igualmente será notificado a cada usuario de la marca en tal región. Claro, para el resto del mundo, se espera que suceda lo mismo en las próximas semanas.
Lo esperado se ha cumplido así que “buen viento y buena mar” para la nueva Microsoft Lumia y que en paz descanse la tan querida Nokia -de nuevo, sólo en móviles-, marca que pasará a la historia especialmente por sus primeros equipos a prueba de balas.
es un tipo de cocina vitrocerámica que calienta directamente el recipiente mediante un campo electromagnético en vez de calentar mediante calor radiante por el uso de resistencias. Estas cocinas utilizan un campo magnético alternante que magnetiza el material ferromagnético del recipiente en un sentido y en otro. Este proceso tiene menos pérdidas de energía, el material se agita magneticamente, la energía absorbida se desprende en forma de calor, calentando el recipiente. Los recipientes deben contener un material ferromagnética al menos en la base, por lo que los de aluminio, terracota, cerámica, vidrio o cobre no son utilizables con este tipo de cocinas.
Funcionamiento
La naturaleza de este calentamiento lo hace mucho más eficiente que el tradicional, pues se calienta directamente el recipiente a utilizar, y no indirectamente como se hace con las tradicionales vitrocerámicas basadas en resistencias. Esto contribuye a un ahorro de energía cada vez más apreciado en la sociedad actual. La vitrocerámica de inducción detecta gracias a un sistema de sensores si hay o no recipiente sobre su superficie. En caso de no haberlos, no funciona. Además incorpora las más modernas técnicas de procesado de señal para lograr un control eficiente de la potencia.El modelo de inducción calienta dos veces más rápido que una placa vitrocerámica convencional. Son capaces de detectar la forma y tamaño del recipiente y se puede elegir la temperatura exacta de cocción (termostato). Además, el tiempo de cocción es muy reducido tardando muy poco en conseguir la temperatura deseada. Esta vitrocerámica facilita la limpieza por su superficie lisa y porque al permanecer fría los posibles desbordamientos no se requeman o incrustan en el vidrio, bastando pasar sobre ella un paño húmedo.
Historia
La aparición de los primeros conceptos de la cocina de inducción se remota a principios del siglo veinte.1 Alrededor de los años cincuenta la división de frigoríficos de General Motors hizo una demostración con cocinas2 en una gira por los Estados Unidos. La inducción se mostraba calentando un cazo y situando al mismo tiempo un trozo de papel de periódico entre la placa de inducción y el cazo. Nunca llegó a la fase de producción.A principios de los años setenta se realizaron nuevos estudios en los Estados Unidos en conjunción con el Centro de Investigación y desarrollo de Westinghouse Electric Corporation en Churchill Borough, cerca de Pittsburgh. Ese desarrollo se hizo público en 1971 durante la exposición llevada a cabo por la National Association of Home Builders convention in Houston, en Texas, como parte de la muestra de Productos para el consumidor de la Westinghouse. Se produjeron cientos de unidades para impulsar la entrada del producto en el mercado a las que se denominaron "Cool Top 2" de inducción. El desarrollo se llevó a cabo en el laboratorio de investigación dirigido por Bill Moreland y Terry Malarkey.
Ventajas
La cocina de inducción tiene numerosas ventajas:
Según el U.S. Department of Energy, la eficiencia de transmisión de energía en la cocina de inducción es del 84% frente al 74% de las cocinas vitrocerámicas convencionales. Lo que significa un ahorro de aproximadamente 12% para la misma cantidad de calor generada.La alta eficiencia en la transferencia de calor de esta nueva tecnología hace que se cocine más rápido, que en las cocinas eléctricas convencionales. También supone un ahorro de energía.
La impresora es uno de los periféricos más importantes de nuestro PC, existiendo diferentes tipos: de matriz, de inyección de tinta, láser. Cada una de ellas requiere cuidados distintos, pero siempre podemos seguir algunas recomendaciones de limpieza y mantenimiento general para mantenerlas en buenas condiciones, sin importar el tipo de impresora que sea. Hoy, veremos algunas técnicas de mantenimiento preventivo para nuestras impresoras.
Limpieza básica de la impresora
Es recomendable mantener nuestra impresora limpia y libre de polvo, así como de exceso de tinta (que pudiera encontrarse dentro de la impresora o en los cartuchos de tinta). Para realizar esta tarea, podemos seguir los siguientes pasos básicos de limpieza:
Primeramente, desconectamos la impresora del PC y de la fuente de electricidad y la ubicamos en una superficie sólida y cómoda para trabajar.
Una vez ubicada la impresora en el área de trabajo, procedemos a limpiar con un paño seco todo el polvo que se encuentra en la parte exterior y en los cables de alimentación de energía o de conexión con el PC. Si la impresora está manchada o tiene mucho sucio acumulado, podemos utilizar un paño humedecido con agua o alcohol isopropílico para retirar la suciedad y dejar la carcasa de la impresora en perfecto estado.
Secamos el exceso de humedad de la carcasa y ya estamos listos para realizar una limpieza interna de la impresora.
Limpieza interna de la impresora
Para realizar la limpieza interna de la impresora, necesitaremos un pincel o brocha fina, un paño húmedo, alcohol isopropílico y aceite del tipo 3 en 1.
Comenzamos abriendo la tapa de la impresora y con la ayuda de un pincel y de un paño húmedo, retiramos el exceso de polvo y de tinta del interior, con mucho cuidado de no forzar ninguna parte del mecanismo de la impresora ya que este es muy delicado.
Podremos observar los rodillos que guían al papel, allí se acumula mucho polvo que retiraremos con cuidado. Seguidamente, retiramos el cartucho de tinta, la cinta (si es una impresora matriz) o el toner (si es impresora láser) y limpiamos con el pincel el polvo acumulado en los soportes de estos y en los rodillos que guían los cabezales de impresión.
En la segunda parte de este tutorial, terminaremos el proceso de limpieza interna de la impresora y comenzaremos con el mantenimiento de su software.
El mantinimiento
de computador es
aquel que debemos realizar al computador cada cierto tiempo, bien
sea para corregir fallas existentes o para
prevenirlas.
El periodo de mantenimiento depende de diversos
factores: la cantidad de horas diarias de operación, el
tipo de actividad (aplicaciones) que se ejecutan, el ambiente donde
se encuentra instalada (si hay polvo, calor, etc.), el estado
general (si es un equipo nuevo o muy usado), y el resultado
obtenido en el último mantenimiento.
Una PC de uso personal, que
funcione unas cuatro horas diarias, en un ambiente favorable y
dos o menos años de operación sin fallas
graves, puede resultar aconsejable realizar su
mantenimiento cada dos o tres meses de operación, aunque
algunas de las actividades de mantenimiento pudieran requerir una
periodicidad menor.
Encambio si la
PC se usa más de 4 horas diarias, tiene mucho tiempo de
operación, se recomienda hacer un mantenimiento por lo
menos una vez al mes.
No debe considerarse dentro de esta actividad la
limpieza externa y el uso sistemático de cubiertas
protectoras de polvo, insectos y suciedad ambiental, ni tampoco
la realización de copias de seguridad
(backup), o la aplicación de barreras anti-virus, proxies o
cortafuegos (firewalls) que dependen de las condiciones
específicas de operación y entorno
ambiental.
MANTENIMIENTO DEL PC
Se puede definir Mantenimiento del PC como una
serie de rutinas periódicas que debemos realizar a la PC,
necesarias para que la computadora
ofrezca un rendimiento óptimo y eficaz a la hora de su
funcionamiento. De esta forma podemos prevenir o detectar
cualquier falla que pueda presentar el computador.
RAZONES PARA HACER UN MANTENIMIENTO AL
PC
Las computadoras
funcionan muy bien y están protegidas cuando reciben
mantenimiento. Si no se limpian y se organizan con frecuencia, el disco duro se
llena de imformación, el sistema dearchivos se
desordena y el rendimiento general disminuye.
Si no se realiza periódicamente un escaneo del
disco duro para corregir posibles errores o fallas, una limpieza
de archivos y la desfragmentación del disco duro, la
información estará más desprotegida y
será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en
tres aspectos básicos importantes, los cuales
son:
Diagnóstico.
Limpieza.
Desfragmentación.
DIAGNOSTICO
La computadora
trabaja más de lo que normalmente se cree. Está
constantemente dando prioridad a las tareas, ejecutando
órdenes y distribuyendo la memoria.
Sin embargo, con el tiempo ocurren errores en el disco
duro, los datos se
desorganizan y las referencias se vuelven obsoletas.
Estos pequeños problemas se
acumulan y ponen lento el sistema
operativo, las fallas del sistema y software ocurren con
más frecuencia y las operaciones de
encendido y apagado se demoran más.
Para que el sistema funcione adecuadamente e incluso
para que sobre todo no se ponga tan lento, se debe realizar un
mantenimiento periódico.
Asegurándonos de incluir en la rutina del
mantenimiento estas labores:
Exploración del disco duro para saber si tiene
errores y solucionar los sectores alterados.
Limpieza de archivos.
Desfragmentación el disco duro.
LIMPIEZA
Para garantizar un rendimiento optimo y eficaz de la
computadora, debemos mantenerla limpia y bien
organizada.
Debemos eliminar los programas
antiguos, programas que no utilicemos y las unidades de disco
para liberar la memoria y reducir
la posibilidad de conflicto del
sistema.
Un disco duro puede presentar diversas deficiencias, que
casi siempre se pueden corregir estas son:
Poco espacio disponible.
Espacio ocupado por archivos
innecesarios.
Alto porcentaje de fragmentación.
Se debe eliminar los archivos antiguos y
temporales. Además, entre más pocos archivos
innecesarios tenga la computadora, estará más
protegida de amenazas como el hurto de la identidad en
Internet.
Cuando el espacio libre de un disco se acerca
peligrosamente a cero, la PC entra en una fase de funcionamiento
errático: se torna excesivamente lenta, emite mensajes de
error (que en ocasiones no especifican la causa), algunas
aplicaciones no se inician, o se cierran después de
abiertas, etc.
Como factor de seguridad aceptable, el espacio
vacío de un disco duro no debe bajar del 10% de su
capacidad total, y cuando se llega a este límite deben
borrarse archivos innecesarios, o desinstalar aplicaciones que no
se usen, o comprimir archivos.
Todas las aplicaciones de Windows
generan archivos temporales.
Estos archivos se reconocen por la extensión
.tmp y generalmente existe uno o varios directorios donde
se alojan.
En condiciones normales, las aplicaciones que abren
archivos temporales deben eliminarlos cuando la aplicación
concluye, pero esto a veces no sucede cuando se concluye en
condiciones anormales, o Windows "se cuelga" o por una deficiente programación de la
aplicación.
Estos archivos temporales deben borrarse del disco
duro.
Existen otro tipo de archivos que pueden borrarse, y no
son temporales: la papelera de reciclaje, el
caché de Internet (windows\temporary internet
files) y algunas carpetas que permanecen el disco
después que se baja o se instala un programa.
El caché de Internet debe borrarse si resulta
estrictamente necesario, ya que después de borrado no
podrán verse las páginas visitadas sin estar
conectado.
Debe hacerse mediante la función
explícita del navegador, y además ajustarse el
tamaño del caché.
Un usuario experimentado puede intentar otras
posibilidades, como por ejemplo eliminar DLL duplicadas,
instaladores, datos de aplicaciones desinstaladas,
etc.
Debe obrar con mucho cuidado cuando haga esta "limpieza
profunda" y si no hay plena seguridad de que un archivo en
cuestión puede ser borrado, no debe eliminarlo de la
papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su
ubicación original si resultara necesario.
En general lo que se debe realizar son estas
labores:
Eliminar los programas antiguos y archivos
temporales.
Eliminar la información obsoleta
Asegurarnos de guardar de manera segura la
información.
Eliminar las entradas de registro
inválidas y los accesos directos
dañados.
DESFRAGMENTACIÓN
De todos los componentes de una PC, el disco duro es el
más sensible y el que más requiere un cuidadoso
mantenimiento.
La detección precoz de fallas puede evitar a
tiempo un desastre con pérdida parcial o total de
información (aunque este evento no siempre puede
detectarse con anticipación).
Alto porcentaje de fragmentación:
Durante el uso de una PC existe un ininterrumpido proceso de
borrado de archivos e instalación de otros
nuevos.
Estos se instalan a partir del primer espacio
disponible en el disco y si no cabe se fracciona, continuando
en el próximo espacio vacío.
Un índice bajo de fragmentación es
tolerable e imperceptible, pero en la medida que aumenta, la
velocidad disminuye en razón del incremento de los tiempos de
acceso al disco ocasionado por la fragmentación,
pudiendo hacerse notable.
Todas las versiones de Windows incluyen el
desfragmentador de disco.
El proceso de desfragmentación total consume
bastante tiempo (en ocasiones hasta horas), y aunque puede
realizarse como tarea de fondo no resulta conveniente la
ejecución simultanea de otro programa mientras se
desfragmenta el disco, debiendo desactivarse también el
protector de pantalla.
CONCLUSIÓN
El problema es que las computadoras se han vuelto tan
confiables y convenientes, que damos por hecho su
operación eficaz.
Sin embargo, al igual que una casa o un
automóvil, las computadoras ocasionalmente requieren atención.
Si se realiza las siguientes labores de mantenimiento
con frecuencia la computadora funcionará de manera segura
y sin problemas:
Diagnóstico.
Limpieza.
Desfragmentación.
De todos los componentes de una PC, el disco duro es el
más sensible y el que más requiere un cuidadoso
mantenimiento.
Por esta razón periódicamente debemos
utilizar el Scandisk u otro utilitario para detectar si hay
errores en el disco duro, y de haberlos tratar de
repararlo.
Una vez esto hecho procedemos a realizar una limpieza
profunda de todos los archivos innecesarios que ponen lento al
sistema, tales archivos son: programas antiguos, archivos
temporales de internet, instaladores de programas, entrada de registros
inválidas, accesos directos dañados, los archivos
contenido en la papelera de reciclaje, entre otros.
De esta manera conseguiremos una PC más
rápida, eficiente, optima, segura y menos propensa a
perder información.