Archivo de la categoría: Uncategorized

XXIX TORNEO MAGISTRAL DE AJEDREZ “CIUDAD DE LEÓN”


Jóvenes talentos frente al pentacampeón

Un formato consolidado y cuatro jugadores muy atractivos por distintas razones garantizan el interes y la emociónn de la vigesimo novena edición del Magistral Ciudad de León, que tendrá lugar del del 9 al 13 de junio en el Auditorio de la ciudad de León.

Un pentacampeón del mundo (Viswanathan Anand, India, 46 años); el juvenil a quien muchos ven como futuro campeón (Yi Wei, China, 16 años); el español más prometedor (David Antón, 20) y el mejor ljugador eonés de la historia (Jaime Santos, 19) disputarán las semifinales del viernes 10 y sábado 11, para el colofón de la final del domingo. Las actividades paralelas también contribuyen a la gran fama internacional del torneo. Estas son las cuatro estrellas que jugarán en León en 2016:

Vishy Anand, Jaime Santos, Yi Wei y David Antón

GM Viswanathan Anand (India)

 

Cinco veces campeón del mundo en tres formatos distintos (duelo a muchas partidas, eliminatorias cortas y torneo por sistema de liga). Actual subcampeón, triunfó en el Torneo de Candidatos de 2014, a los 44 años, pocos meses después de perder el título ante Magnus Carlsen. Ha ganado ocho veces el Magistral Ciudad de León. Conocido como El Rápido de Madrás (su ciudad natal, que ahora se llama Chennai) por la velocidad de su juego, una frase le hizo famoso cuando era un novato en la élite: “Si pienso, me equivoco”. El hombre tranquilo del ajedrez mundial, de gran calidad personal, amable con todos y siempre dispuesto a atender a los aficionados y la prensa, él (cuida tanto su preparación física como la técnica) y Véselin Topálov son los únicos de los 15 primeros del mundo con más de 40 años. Su cariño a este torneo es patente: “En León me siento como en mi casa, ¡y además suelo ganar!”.

MI Jaime Santos Latasa (España)

Desde niño fue la gran esperanza leonesa, y hoy es uno de los españoles con más futuro. Aprendió a jugar con su padre a los 5 años, y destacó muy pronto en las categorías inferiores, ganando títulos autonómicos y nacionales. Ha sido campeón de España sub 10, sub 12, sub 14 y sub 16, y ha formado parte del equipo español de jóvenes talentos en numerosas ocasiones. Ha jugado Campeonatos Mundiales y Europeos, rozando las medallas varias veces. La última fue el Europeo sub 18 en 2014, donde finalizó el 4º puesto tras liderar la competición. Es Maestro Internacional desde hace 2 años y tiene una norma de Gran Maestro conseguida en el Torneo Internacional de Granada, donde compartió el primer puesto. Es el segundo leonés que disputa el Magistral, 18 años después de que lo hiciera Marcelino Sión. En las últimas ediciones brilló en sus pinitos como comentarista, junto a Leontxo García, y ahora pasará del micrófono al escenario.

GM Yi Wei (China)

Su palmarés a los 16 años es tan brillante como el del actual campeón del mundo, Magnus Carlsen, a la misma edad, e incluye haber sido el gran maestro más joven del mundo, a los 15 años. Casi todos los expertos le señalan como el más probable sucesor del noruego, con quien hizo tablas en enero de este año, en la 3ª ronda del torneo Tata Steel de Wijk aan Zee (Holanda). Era la primera partida entre ambos, fue magnífica, y nadie duda de que habrá muchas más. Entre los más convencidos están los aficionados de León, donde ha logrado la hazaña de ganar las dos últimas ediciones del Magistral, a los 14 y 15 años, algo asombroso, que sólo un genio puede conseguir. Además lo hizo exhibiendo una sangre fría impropia de su edad, incluso en momentos de máxima tensión, que inspiró al escritor Arturo Pérez­Reverte a bautizarlo como El témpano de Jiangsú. Como ya ocurrió con Carlsen, Serguéi Kariakin y otros, León contribuye a promover mundialmente a la gran estrella del próximo futuro. Y esta vez frente al pentacampeón Anand.

GM David Antón (España)

Subcampeón de Europa absoluto en 2014, subcampeón del mundo juvenil en 2013, campeón de España juvenil, medalla de bronce en el Europeo sub 16 de 2011. Varias veces campeón de España en categoría escolar. Campeón de España Universitario. Con ese palmarés, Antón es hoy el jugador español con mayor proyección. El año pasado se estrenó en el Magistral con una actuación más que digna frente a Yi Wei, quien le venció por la mínima (2,5­1,5) en semifinales. Este madrileño de origen murciano impresiona por su capacidad de lucha, y también por su serenidad, incluso cuando las manecillas del reloj amenazan, el cansancio pasa su factura y la tensión aumenta. Hace dos años intentó simultanear su carrera deportiva con la de universitaria (Matemáticas). Pero, dados sus buenos resultados en los torneos, decidió ser jugador profesional de plena dedicación y comprobar cuál es su techo. En León 2016 pasará otra prueba de fuego.

La mezcla de estrellas consagradas con otras en ciernes fue siempre una de las señas distintivas del Magistral Ciudad de León. Pero esta edición es una mezcla de especial interés: uno de los mejores jugadores de la historia, un previsible campeón del mundo a medio plazo, la principal esperanza del ajedrez español y el producto más brillante del trabajo realizado en León con las jóvenes promesas durante muchos años.

Sean cuales sean los emparejamientos por sorteo de las semifinales para el viernes 10 y el sábado 11 de junio, en el Auditorio de León se volverá a demostrar que el ajedrez puede ser un espectáculo vibrante, sobre todo en sus modalidades rápidas, con tableros electrónicos gigantes, comentarios en directo y entrevistas con los cuatro jugadores, quienes además responderán a preguntas del público. Pero el Magistral no es sólo una reunión de estrellas de élite. Sus actividades paralelas se cuidan mucho y abarcan otras facetas de gran interés: el ajedrez como herramienta educativa (curso de formación de docentes) y como arte (ciclo de cine), así como un tratamiento esmerado de las promesas (clase magistral y torneo de jóvenes talentos). Y otra novedad importante este año, que permitirá disfrutar a muchos aficionados: un torneo abierto internacional.

Actividades paralelas

I curso para la formación de docentes en la enseñaza del ajedrez

En  la semana del Magistral de Ajedrez, tendrá lugar un curso pionero de formación de profesorado de enseñanza infantil y primaria en la enseñanza de ajedrez. Este curso esta refrendado por la Universidad de León y la federación Española de ajedrez.

Semana de cine y ajedrez

Del 3 al 10 de junio, en la sala “El Albéitar” de la Universidad de León. Semana de cine dedicada al ajedrez dirigida por Miguel Ángel Nepomuceno. Se proyectaran diversas películas relacionadas con el ajedrez, algunas,  autenticas joyas imposibles de ver a través de los canales de distribución normales. Habrá sesiones de mañana y tarde gratuitas para el publico.

Clase magistral para jóvenes talentos

Jueves 9 de Junio –Club de Prensa del Diario de León a las 17.30 horas.

El gran maestro David Antón Guijarro, actual sub campeón de Europa sub-18, impartirá una clase magistral para 15 de los escolares mas destacados de León.

I Torneo Internacional Abierto de Ajedrez “Magistral de León”

Sábado 11 y domingo 12 de junio. 100 jugadores disputarán esta primera edición del Abierto Internacional “ Magistral de León. Este formato permitirá la competencia entre maestro y aficionados al ajedrez. Tanbien fomentara la visita de aficionados al ajedrez de toda España y extranjero que podrán aspirar a la importante bolsa de premios y además ver ajedrez de primer nivel mundial en León. Otro importante objetivo es dar la oportunidad de tomar parte en él a los aficionados de León y provincia así como a al resto de los aficionados de Castilla y León.

IX Torneo para jóvenes talentos Editorial MIC

Domingo, 12 de junio, a las 10:00 horas, en el Auditorio de la ciudad de León, tendrá lugar el cuarto Torneo de jóvenes talentos en colaboración con La Crónica de León de partidas rápidas.

Simultáneas para escolares

El viernes, 10 día 10 y el domingo, día 12 de junio. Vestíbulo del Auditorio de la ciudad de León. Los escolares de León y provincia podrán enfrentarse a famosos maestros de ajedrez en exhibiciones de simultaneas, todos los participantes recibirán obsequios conmemorativos por su participación.

Simultáneas del gran maestro más joven del mundo y actual campeón del Magistral de León, Wei Yi, en la Universidad de León.

El lunes, 13 de junio, a las 17:30 horas tendrá lugar en el vestíbulo de la Facultad de Filosofía y Letras una exhibición de simultaneas a cargo del gran maestro chino y actual campeón del Magistral 2014, WEI YI., que se enfrentara  a 25 aficionados.

 

 

Anuncios

Un niño de 12 años encabeza el campeonato iraní


por Albert Silver
25/01/2016 – En 1981 el ayatolá Jomeini prohibió el ajedrez en Irán. En 1988 volvió a permitirlo. Desde entonces, el país ha vivido un renacimiento en el mundo de las 64 casillas, cantera incluida. En el Campeonato de Irán Individual Absoluto, tras seis rondas lidera un chaval de 12 años, Alireza Firouzja, por delante del GM Ehsan Ghaem Maghami. En el tercer puesto va Aryan Gholami, de 14 años. Reportaje…

Campeonato de Irán 2016

El Campeonato de Irán en Teherán

Garshasbi HR, director general de Juventud y Deporte realiza la jugada inaugural.

Hace unos meses, Aryan Gholami (14 años) ganó la medalla de bronce en el Campeonato del Mundo Juvenil en su categoría de edad. En el Campeonato de Irán también esperaba obtener un buen resultado porque los cinco mejores se clasificarán para formar parte del equipo olímpico en Bakú 2016. Tras seis rondas iba en el tercer puesto.

Ganó entre otros a Masoud Mosadeghpour, campeón sub-18 2015

Clasificación tras 6 rondas

LA DESIGUALDAD SOCIAL


 

El término desigualdad social hace referencia a una situación socioeconómica en la que un grupo o minoría recibe un trato diferente por parte de otro individuo o colectivo con mayor poder social. Las causas de la desigualdad social pueden deberse razones culturales, religiosas, étnicas, de género…

La desigualdad se manifiesta en muchas ocasiones a través de aislamiento, marginación y discriminación. Las desigualdades abarcan todas las áreas de la vida social: diferencias educativas, laborales, e incluso pueden llegar a convertirse en diferencias judiciales.

Históricamente las desigualdades sociales tienen un fundamento natural, basado en las distintas habilidades, recursos y aptitudes de los seres humanos. Sin embargo, la lucha contra la desigualdad debería orientarse a conseguir una sociedad en la que todos los individuos de un país pudieran disfrutar de los mismos derechos como ciudadanos.

La abolición de la esclavitud fue uno de los avances más importante para la eliminación de las desigualdades sociales. Sin embargo, sigue siendo legal en Mauritania, mientras que en muchas regiones del mundo continúa siendo una práctica habitual a pesar de la condena pública de sus países.

La tarea política prioritaria debe ser trabajar para construir un nuevo orden social (político, social y económico) sustentado en una justa distribución de la riqueza social, ya que de seguir con estas desigualdades, la lucha contra la justicia fiscal y las acciones para erradicar la pobreza quedarán sin efecto alguno.

Desde InspirAction creemos que combatir la desigualdad social empieza por exigir una política fiscal justa:

– Luchando por conseguir que los impuestos propicien una justa distribución de las rentas.

Controlando exhaustivamente los paraísos y evasiones fiscales, así como toda acción que implique fraude fiscal, sin olvidarnos del blanqueo de capitales.

Por otro lado, es necesario restablecer valores en la educación, la formación, la reducción del desempleo y en suma, un sistema más equitativo de reparto de riquezas, que haga posible una sociedad con menos desigualdades.

Nuestro compromiso es trabajar en proyectos de desigualdad para poder ofrecer.

       Consecuencias de la desigualdad

189849[1]th960PRID9

Un trabajo reciente o metaestudio basado la comparación de más de 150 artículos científicos revela que los países con mayores desigualdades económicas tienen mayores problemas de salud mental y drogas, menores niveles salud física y menor esperanza de vida, peores rendimientos académicos y mayores índices de embarazos juveniles no deseados.

En esos casos también se comprobó que no es el nivel de renta sino la desigualdad económica el factor explicativo principal. Por lo que los autores de dicho estudio concluyen que entre los países más desarrollados, los más igualitarios obtienen un mejor comportamiento en una serie amplia de índices de bienestar social.

Ivan Illich critica el fortalecimiento de las desigualdades sociales de los sistemas sanitarios mundiales, y Freidson analiza el poder de los especialistas. Uno de los factores que impiden que sea no sólo una necesidad de todos, sino una meta alcanzable, es la desigualdad social. España, al igual que otros países, tiene la dura tarea de enfrentar esa realidad.

Por desgracia, los políticos sanitarios y los médicos han tardado en reaccionar a esa verdad. El objetivo para disminuir las carencias y, por tanto de mayor incidencia de enfermedad es reduciendo las desigualdades sociales. Las clases sociales más bajas enferman más, mueren antes y son susceptibles de mayor cantidad de accidentes durante su trabajo. Una de las propuestas más interesantes que se ofrecen en el libro “Salud y poder” de Rodríguez de Miguel, es la necesidad de que los médicos aprendan Ciencias Sociales, y los sociólogos aprendan Medicina.

             Causas de la desigualdad

featured-slum[1]

 

Rousseau, en su obra sobre el origen de las desigualdades, utilizando lo que él llama el estado natural del hombre, deriva la desigualdad del hombre del estado social.7 El hombre no nace con la desigualdad sino después de que se compara con sus semejantes y ve sus diferencias es cuando entonces se pierde la igualdad del ser humano. Rousseau dice que la desigualdad debe su fuerza y su aumento al desarrollo de las facultades y a los progresos del espíritu humano y se hace al cabo legítima por la institución de la propiedad y de leyes.

El estudio antropológico y arqueológico de las sociedades ha revelado que las sociedades paleolíticas eran bastante igualitarias, y salvo las diferencias de sexo y edad en las tareas, existe poco o ninguna diferenciación adicional. En general hombres y mujeres de la misma edad tienen habilidades y conocimientos similares, y parece existe muy poca especialización en las sociedades de cazadores-recolectores.

Esas evidencias, apuntan las desigualdades en las sociedades humanas se hicieron más marcadas en las sociedades neolíticas, en las que existía una creciente especialización y, por tanto, asimetrías en el acceso a los recursos naturales, bienes económicos, información general y conocimientos.

Las élites responsables de centralizar y organizar la producción y custodia de alimentos, en las sociedades preestatales en general aprovechan su acceso diferencial a los recursos en beneficio de sus parientes, lo cual parece ser una de las formas iniciales de desigualdad social en las sociedades humanas.

                   Formas de desigualdad

Desigualdad-mundo[1]

Desigualdad económica

La desigualdad económica se da cuando dos individuos efectúan el mismo trabajo, pero la ganancia en este caso monetaria no es igual para ambos. Esto viene dado por varias razones. Para Hunt y Colander, el factor más importante son las diferencias en las ganancias de los individuos. Estas diferencias se basan en parte a la ocupación y a las cualidades personales de las personas involucradas. El factor más básico que determina las variaciones de ingreso entre los grupos ocupacionales es la demanda y la oferta.

Las ocupaciones que requieren actitudes especiales y mucha capacitación tienen sueldos altos debido a que la oferta de trabajadores es poca en relación con la demanda. Las ocupaciones que son clasificadas como trabajos comunes y que todas las personas pueden ejercer con poco entrenamiento o escasa capacidad tienden a pagar menos. Dentro de cada grupo ocupacional hay grandes diferencias en el poder adquisitivo, especialmente en los niveles profesionales y administrativos más altos. Otra razón es el sexo de los individuos involucrados, es decir, hombre/mujer. Esto nos lleva a la desigualdad entre sexos.

La desigualdad económica se lleva dando en contínuas ocasiones a lo largo de la Historia de la Humanidad, se cree que incluso desde la Prehistoria. Lo que hace la desigualdad económica en sí es estratificar o crear clases o niveles en la sociedad, es decir, ricos/clase media/pobres. Uno de los productos de la estratificación se ve en el sistema capitalista, jefe/empleado. Existen otras escalas que la sociedad ha ido creando poco a poco con diferentes criterios para así diferenciar entre las personas que pueden sustentarse y las que no.

Las clases sociales son determinadas mayormente por hechos históricos de un lugar en específico. Las clases sociales o estratificación es, la desigual distribución de derechos y privilegios, deberes y responsabilidades, gratificaciones y privaciones, poder social e influencia dentro de una sociedad. Se entiende que si dos individuos pertenecen a una misma clase social, los mismos gozan de los mismos privilegios y/o privaciones.La democracia puede ser marchitada por la desigualdad socioeconómica, pero esta desigualdad es casi inevitable dada las normas que rigen la sociedad democrática.

Desigualdad entre sexos

1029420-la-gente-en-el-trabajo-las-empresas-que-tengan-un-equipo-de-reunion[1]1304066069_1[1]

 

Según Raygadas, uno de los factores centrales en la construcción de desigualdades ha sido la discriminación sexual. Se han estructurado distinciones sociales y culturales entre hombres mujeres para convertir las diferencias biológicas del sexo en jerarquías de poder, estatus e ingresos. También se puede definir como el reparto de tareas, empleos y profesiones en base al género femenino o masculino, esta práctica, que era común en la sociedad, solo se empezó a cuestionar hace veinte años.

Las consecuencias de esta desigualdad son que las mujeres ganan menos que los hombres, o los hombres menos que las mujeres (haciendo el mismo trabajo, con el mismo título educativo, las mismas horas).La sociedad salarial no es una sociedad de igualdad, hay una gran diferencia entre el ingreso que genera un hombre y el ingreso que genera una mujer y hasta en el acceso a bienes sociales que tienen cada uno como por ejemplo en la educación y en la cultura. Con la desigualdad entre sexos viene el feminismo que no es más que la lucha de las mujeres para tener igualdad de derechos ya sean económicos, políticos, judicial entre otros.

Esta desigualdad es algo histórico desde los grandes imperios en los cuales la mujer no tenía vida pública. Esta desigualdad se ha ido debilitando poco a poco debido a la lucha del movimiento feminista. El feminismo lucha contra el dominio del hombre en algunas facetas sociales lo que antes era normal o natural y que se veía con obviedad. Esto no es solo la lucha por igualdad en ciertas áreas de la sociedad sino que también es la liberación psicológica de las mujeres. Esto significa que estas jugaran un rol más importante en la sociedad actual.

Desigualdad jurídica

La desigualdad jurídica es discriminación legal, es decir, en un tribunal sobre algún individuo. Esto ya sea por motivos económicos ya que las personas que gocen con mayor poder monetario las leyes sean más flexibles o tengan más oportunidad de salir absuelto. También se da por motivos raciales y/o procedencia es decir color de piel o país.

Esto lo que quiere decir es que si a un tribunal va un individuo de tez blanca y un individuo de tez negra, culpados por el mismo delito se le debería dar el mismo trato o condena. También si a un tribunal va un individuo inmigrante de otro país acusando a alguien nacido en el país que se hace la acusación se le trate igual que si fuese viceversa.

Conclusión

En conclusión la desigualdad o discrimen es un medio de presión por el cual los miembros de las altas esferas o estratos sociales impiden que las personas que están en las esferas bajas puedan subir. Esto hablando de cualquier tema es decir política, ambiental, economía, cultural y educativa entre otras muchas. En tanto las personas de las clases bajas luchan por llegar arriba para gozar de los beneficios. La desigualdad, definida como la existencia de diferencias, es omnipresente en la naturaleza, según Gandhi.

Tenemos que pensar y luchar por la igualdad, precisamente porque existe una gran desigualdad en el mundo físico. Que los hombres no son iguales es sólo una verdad a medias, la otra mitad es que lo son. La interconexión de las diferentes dimensiones de la desigualdad es una alternativa para comprender la complejidad de este fenómeno. También muestra que el combate contra la desigualdad tiene que articular acciones en los tres ámbitos: en el aspecto micro social, en el nivel intermedio y en el ámbito macro social.

 

Napoleón jugaba ajedrez


Napoleon1[1]

El ajedrez es un juego milenario que ha atraído a ilustres personajes a lo largo de su larga historia. Intelectuales, artistas, filósofos, políticos… muchos de ellos fueron fascinados por un juego que reúne ciertas cualidades que lo hacen único. De hecho para muchos no es un simple juego, ha recibido calificativos que lo sitúan en la categoría de ciencia o incluso de arte. Sea como fuere, nadie puede dudar que es una actividad entretenida y estimulante, que nos brindará horas de diversión.

Uno de los personajes célebres que fue cautivado por el ajedrez fue Napoleón Bonaparte, general y emperador de Francia a principios del siglo XIX. Este original general puso bajo sus pies a casi toda Europa, salvo la lejana y helada Rusia donde encontró la derrota que precipitaría su caída del trono francés. Una vida fascinante que le convirtió en el hombre más poderoso de su tiempo… pero no es eso lo que nos ha llevado hasta aquí, sino su gran afición por el ajedrez.

Hay que empezar diciendo que Napoleón no era un gran jugador, ni siquiera tenía grandes conoci- mientos sobre la teoría de la época, pero jugaba con gran entusiasmo y una vez sentado ante el tablero era tan ambicioso como en el campo de batalla. La mejor manera de conocer su nivel y su forma de jugar es reproducir sus partidas:

Madamme de Remusat – Napoleón Bonaparte

Paris, 1802

Hay que comenzar diciendo que Madamme de Remusat era un jugadora bastante floja, algo que se constata a lo largo de toda la partida. Este es un buen ejemplo de como explotar una apertura mal jugada por el rival 1.e4 Cf6 2.d3 Cc6 3.f4 e5 4.fxe5 Cxe5 5.Cc3 Cfg4 Napoleón despliega su caballería, tal como hacía en sus batallas reales cuando iniciaba el ataque con dicha guardia 6.d4 Dh4+ 7.g3 Df6 se amenaza mate en f2, las negras han desarrollado sus fuerzas con rapidez, las blancas por el contrario están atrapadas e inmoviliza- das 8.Ch3 Cf3+ 9.Re2 Cxd4+ 10.Rd3 un error que precipita los acontecimientos, llevar al rey hacia el centro es facilitar las cosas al rival

Remusat-Napoelon[1]

 

10…Ce5+ Napoleón combina para llevar al rey todavía más lejos, donde será más vulnerable… el mate es inevitable 11.Rxd4 Ac5+ 12.Rxc5 Db6+ 13.Rd5 Dd6++ 0–1Napoleon3[1]Remusat[1]

Madamme de Remusat fue una de las damas de honor de Josefina, esposa de Napoleón. Su relación con el Emperador fue importante, ya que fue la encargada de escribir las memorias de éste, en la que es considerada su biografía más fiable. Napoleón fue incapaz de escribir sobre sí mismo, a pesar de intentarlo en varias ocasiones, por lo que nos tenemos que fiar de lo escrito por otras personas.

Napoleón jugó esta partida con un estado de ánimo alterado. No en vano, esa misma noche iban a fusilar, por orden suya, a uno de sus mayores opositores, el duque de Enghien. Tal vez esto hizo que Napoleón jugase de manera agresiva, barriendo a su débil rival en tan sólo 13 jugadas.

Napoleón Bonaparte – Autómata ‘El turco’

Viena, 1809

Un autómata es una máquina capaz de realizar cualquier tarea humana. En cuanto al ajedrez, el más famoso fue ‘El turco’, que campó a sus anchas, derrotando a todos sus adversarios, durante el siglo XIX. Como es lógico imaginar, esta máquina era un engaño, un fuerte jugador humano estaba oculto en su interior y era el encargado de realizar las jugadas 1.e4 e5 2.Df3 aquí vemos el flojo nivel en conocimientos de teoría del emperador, esta salida prematura de la dama es un poco temeraria 2…Cc6 3.Ac4 Cf6 4.Ce2 Ac5 5.a3 d6 6.0–0 Ag4 7.Dd3 Ch5 a pesar de jugar con negras, ‘el Turco’ ha desarrollado todas sus piezas, la iniciativa es suya 8.h3 Axe2 9.Dxe2 Cf4 10.De1 Cd4 11.Ab3 

Napoleon-Bertrand[1]

11…Cxh3+ esta combinación no es captada por Napoleón y resultará decisiva ya que su enroque queda destrozado 12.Rh2 no se podía tomar el caballo por el jaque doble Cf3+ 12…Dh4 13.g3 grave error de Napoleón que permite ganar la dama a las negras 13…Cf3+ 14.Rg2 Cxe1+ 15.Txe1 Dg4 16.d3 Axf2 17.Th1 Dxg3+ la partida ya no tiene sentido, las blancas deberían haber abandonado ya 18.Rf1 Ad4 19.Re2 Dg2+ 20.Rd1 Dxh1+ 21.Rd2 Dg2+ 22.Re1 Cg1 23.Cc3 Axc3+ 24.bxc3 De2# 0–1

Turco[1]

Napoleón disputó 3 partidas contra el autómata y en las 3 encontró la derrota. Otra historia curiosa rodea a estas 3 partidas. Como ya he dicho, la fama de ‘El Turco’ se había extendido como un reguero de pólvora por toda Europa, reyes y nobles habían acudido a ver sus prodigios y habían sucumbido al jugar contra el autómata, por ejemplo: el duque Pavel, la zarina Catalina II o el emperador Federico II. Cuando Napoleón fue invitado a Viena para disputar varias partidas contra este ingenio diabólico, no lo dudó y aceptó la propuesta…

Lo que Napoleón no sospechaba es que tras esta invitación había un plan de sus enemigos, los ingleses, para apresarle. Dicho plan fracasó y el emperador consiguió huir sin ser hecho preso.

Otra cosa que ignoraba Napoleón, y todos sus contemporáneos, es que dentro de la máquina se encontraba Johann Allgaier, un fortísimo jugador francés. De hecho, en esa época se creía que ‘El turco’ funcionaba gracias a campos magnéticos, ya que su interior estaban llenos de cables (para despistar al observador). Los más crédulos dieron por cierto el rumor de que la máquina era un pacto con el diablo hecho por su creador, Wolfgang Von Kempelen.

Está documentado que tras la 3ª derrota, Napoleón se encolerizó y de un manotazo arrojó todas las piezas del tablero al suelo. A pesar de su orgullo, Napoleón no podía competir ante un jugador de la talla de Allgaier.

Napoleón Bonaparte – General Bertrand

Santa Elena, 1818

1.Cf3 Cc6 2.e4 e5 3.d4 Cxd4 4.Cxd4 exd4 5.Ac4 Ac5 6.c3 De7 esa no era la mejor opción, había varias jugadas que hubiesen favorecido el desarrollo de las piezas negras 7.0–0 De5 8.f4 dxc3+ las negras atacan y tienen la iniciativa, veamos si Bertrand supo aprovecharlo 9.Rh1 cxb2

Napoleon-Bertrand[1].jpg

10.Axf7+ Rd8 11.fxe5 a Napoleón no le importa perder una torre, la dama coronada está encerrada y ya no influye en el juego. Aun así la ventaja material está del lado negro, pero tendrá que jugar con fuerza para conservarla 11…bxa1D 12.Axg8 Ae7 si se toma el caballo sigue Db3 con algún problema para las negras13.Db3 a5 inconcebible error que permite a las blancas disponer de un mate en 5 jugadas. Lo mejor era reintegrar la dama al juego a través de Dxe5 14.Tf8+ Axf8 15.Ag5+ Ae7 16.Axe7+ Rxe7 17.Df7+ Rd8 18.Df8# 1–0

Bertrand[1]Napoleon2[1]

 

Henri Gatien Bertrand fue un general que sirvió a las ordenes de Napoleón y que compartió el exilio con éste en la isla de Santa Elena. Durante los largos días de cautiverio no tenían demasiadas actividades en las que ocuparse, por lo que disputaron un gran número de partidas de ajedrez.

Aprovechando que la afición de Napoleón al ajedrez era conocida por todos, sus partidarios idearon un plan para que se fugase de Santa Elena. Le regalaron un ajedrez con piezas talladas en marfil, sabiendo que dicho regalo no despertaría sospechas entre sus captores. Dentro de este ajedrez había un plan perfecta- mente detallado para que el general corso huyese de su isla-prisión. Esto no llegó a ocurrir, ya que Napoleón estaba en el fin de sus días y no se vio con fuerzas para emprender la dura empresa de recuperar su libertad.

Esta es la historia relacionada con el ajedrez de uno de los personajes más relevantes de la historia, que nos demuestra la importancia de este juego que es capaz de cautivar a las mentes y personalidades más brillantes.

NOTA IMPORTANTE (27-02-2011): Según lo publicado por el GM Youri Averbach en uno de sus libros, varias de las partidas jugadas por Napoleón que se han conservado son falsas, fueron inventadas por el campeón francés del siglo XIX Pierre Charles Saint Amant, con la idea de ensalzar al personaje. Según Averbach, sólo la partida ante el Turco es real, el resto fueron invenciones de la retorcida mente de Saint Amant. La verdad es que si todas las crónicas coinciden en que Napoleón era un jugador bastante flojo, parece extraño que jugase dos partidas del nivel de las disputadas ante Bertrand y Mme. Remusat. De todas formas, he decidido no cambiar el artículo, sirva pues como tributo a la pícara y brillante mente de Saint Amant que inventó las partidas y a Napoleón, que tenía tanta afición al ajedrez como cualquiera de nosotros.

Napoleon1[1]

científico ruso revela remedio casero potente contra el cancer


                                        Medicinas Naturales

1[4]

La receta del científico ruso, el profesor Hristo Mermerski, es considerada como el remedio revolucionario, que se utiliza para curar a miles de personas con cáncer.

“Es un alimento para el tratamiento de todo el cuerpo, y el cáncer en el cuerpo va a eliminarse “, dijo en sus conferencias.

El secreto es que esta mezcla limpia los vasos sanguíneos, cura el corazón, regenera tu sistema inmunológico, limpia el hígado y los riñones. También mejora la función cerebral y la memoria, protege de ataques al corazón y lleva a la recuperación total de los que han sufrido un ataque al corazón o un derrame cerebral. Muchas personas están diciendo que este es el mejor remedio contra todos los tipos de cánceres.

Ingredientes:

* 15 limones frescos, 12 dientes de ajo fresco, 1 kg de miel, 400 gramos de grano germinado (trigo joven verde) y 400 gramos de nueces frescas

Preparación del trigo:

En un recipiente pon los 400 gramos de trigo joven. Vierte agua y déjala durante la noche. Después de 10 o 12 horas, cuela el agua con una gasa limpia, lava los granos y otra vez cuela a través de una gasa.

Agrega el trigo escurrido en un contenedor y déjalo reposar durante 24 horas. Después de eso, recibirá brotes de trigo con una longitud de 1 a 2 milímetros.

Preparación de la solución:

Debes moler el trigo germinado, las nueces y dientes de ajo limpios. Moler 5 limones con la cáscara y mezcla todo junto. Haz un jugo de limón de los otros 10 limones y mézclalo con el resto de la mezcla, hasta que la mezcla se vuelva homogénea.

Agrega la miel y remueve con una cuchara de madera y pon la mezcla en un recipiente. Déjala 3 días en la nevera y entonces podrás comenzar a consumirla.

¿Cómo se debe utilizar?: debes tomar este remedio 30 minutos antes del desayuno, el almuerzo, la cena y antes de acostarte. Si lo utilizas para tratar el cáncer, toma 1 o 2 cucharadas cada 2 horas.

El Profesor Mermerski dice que la receta garantiza una vida sana y larga, curar el cáncer, conserva la frescura del cuerpo, la juventud y la energía.

“Este remedio contiene todas las vitaminas necesarias, sales minerales, sustancias bioactivas, proteínas, carbohidratos y aceite vegetal. Por lo tanto, mejora el rendimiento de todos los órganos y glándulas internas, que mantienen el cuerpo sano y todo conduce a curar el cáncer por completo. ”

Gracias por tomarte el tiempo para leer este artículo. Si encuentra útil esta información, por favor compartirla con tus amigos y familiares. Tu apoyo en nuestro esfuerzo de compartir información gratuita sería muy apreciado.

hristo-mermerski[1]

¿Que tener en cuenta al comprar una PC?


  • HP-Sprout-1-660x350[1]
  •  bueno en este post les explicare con lo que mas
  • puede, para que ustedes tengan claro lo que tienen que saber antes de comprar una buena computadora. bueno cualquiera diria que es velocidad de microprocesador, cantidad de memoria RAM, memoria grafica, y sobre todo para mayor seguridad que sea de marca. pero se los explicarte mejor. 1) Cantidad de Memoria: La querida RAM (un informático sabe que nunca es suficiente) está barata, por eso suelo calcular el doble de lo normal para la actualidad, en este momento serían 16 GB, y de la velocidad de la misma no debemos hacernos problemas salvo que estemos armando una máquina muy pretenciosa, de la marca sí, tiene que ser reconocida, como samsung,asus,dell,hp,Kingston, OCZ o Corsair. 2) Velocidad de disco: Es una locura ahorrar algunas monedas en el disco, lo mejor que podemos hacer es gastar un poco más y llevarnos un disco con la mayor cantidad de caché posible, por ejemplo un disco de 32MB y 7200RPM hacen la diferencia. (Y ni hablar de armar un RAID 0 para PC’s con altos requerimientos) o los modelos SSD un poco mas caros,pero con mejor velocidad 3) Gabinete: como la mayoría viene con fuente, prefiero que cuesten más pero me brinde cierta confiabilidad y no esté rezando para que no explote la fuente, además un gabinete medianamente decente suele tener conexiones USB delanteras más robustas, coolers adicionales y extras que terminan por convencerme en vez delos famosos “kits” 4) Motherboard: Lo barato sale caro, esa frase resume mi pensamiento sobre el alma de la PC, aunque hay más motherboards que modelos de nike, es recomendable nunca comprar segundas marcas. 5) Procesador: la mayoría de las personas no utilizan más del 10% del procesador, por lo tanto, para PC’s de uso hogareño o para oficinas suelo recomendar elprocesador más barato de Intel o AMD que se pueda conseguir, luego si el requerimiento de los usuarios lo amerita (PC para juegos o para uso profesional) será necesario poner un micro más potente, claro, cada necesidad es un mundo… 6) Placas de Video y sonido: Acá depende del usuario, como recién comenté con lo del procesador, para una PC hogareña sin pretensiones con el video y sonido que traen los motherbords (onboard) sobra, ahora, para los más quisquillosos con el sonido, es recomendable, mínimamente una Soundblaster de gama baja. S obre la placa de video, para aquellos que juegan muy ocasionalmente, mientras elmotherboard traiga un video Nvidia o ATI incorporado le va a poder jugar a algo, ahora, si saben que el interesado va a jugar mucho. De manera general podemos ver algunas cuestiones que son necesarias cuando pensamos en comprar un equipo de cómputo, ya que la diversidad de opciones que se ofrecen puede llegar a confundir al consumidor sobretodo para aquellos que buscan una computadora para la casa. tambien de otra forma explicada: debemos tener claro para que queremos la computadora, si es para usarlo como procesador de texto, para juegos, para Internet, para viajar, para diseño o para editar música, en fin, sabemos que puede haber muchos usos o necesidades a cubrir, pero lo más importante es que cubra nuestras necesidades. Ya que la computadora debe de seleccionarse en base a nuestros requerimientos y no a los del vendedor. La primera decisión será entre comprar una laptop o una pc, debemos considerar la laptop si lo que queremos es llevar la computadora de un lugar a otro, incluso si tenemos poco espacio en casa, una laptop muchas veces resulta una buena opción. Consideremos por ejemplo un estudiante universitario que necesita llevar la computadora a la universidad, biblioteca, lugar de reunión, etc. O bien si la queremos para los más pequeños posiblemente una desktop o computadora de escritorio sea la mejor opción, ya que incluso son más resistentes y es muy difícil que se caiga por un descuido. Posteriormente necesitamos verificar los requerimientos de multimedia que queremos, ya que entre más opciones se necesiten, el precio puede subir ya que la velocidad del procesador, memoria y capacidad del disco deben ser más grandes. Esto es, si la computadora la necesitamos para editar fotos, juegos, videos o diseño en general, deberá tener un procesador más potente a diferencia de una pc en la que solo se utiliza como un procesador de palabras o para hojas de cálculo. En cuanto al monitor, este muchas veces depende del gusto del consumidor, por supuesto un monitor con mayor resolución es recomendable para aquellas personas que les interese las opciones de multimedia, televisión o juegos en la computadora, si no es así, cualquier monitor puede ser suficiente para operar el equipo. Posteriormente les platicare de las opciones que existen para monitores. Y de manera muy general falta escoger la marca, en realidad aquí hay dos opciones principales: una computadora armada o una de marca conocida. El precio cambia mucho pero siempre se debe considerar las características que ofrecen; flexibilidad para agregar o eliminar componentes, compatibilidad con otro hardware, el precio y por supuesto la garantía que nos ofrecen. Cualquiera que sea la opción que se prefiera, debemos estar conscientes de que compre lo que compre la tecnología siempre avanza rápidamente por lo que el equipo será obsoleto en el momento en que lo adquiera5 PREGUNTAS DEBERIAS CONTESTARComprar un PC no tiene por qué ser una tarea muy complicada de hecho puede ser hasta divertida. Este artículo está pensado para ayudarte en la toma de decisiones justo antes de adquirirlo.1.- ¿Necesitas un PC?Debes tener claro que uso le vas a dar. Un PC es un equipo muy útil. La cantidad de tareas distintas que puedes realizar es casi inacabable. Pero no deberías de comprar uno si no la vas a utilizar.Sí tu idea es solo jugar, tienes consolas muy interesantes en el mercado y con precios sensiblemente menores a los que tienes por un PC.Puedes si estas interesadoLa experiencia de juego es al menos comparable, cuando no superior, y tienes la ventaja de que tardan mucho más en quedar obsoletas.

    Una consola no se quede atrancada en un juego y siempre es capaz de reproducirlos.

    Al igual ocurre si su única función va a ser la reproducción de películas, en este caso un buen reproductor multimedia puede darte un precio mejor y ahorrar unos cuantos dólares.

    Nunca desestimes la compra de una tablet si lo que estás pensando es en hacer un uso más bien consumista de la información. Es decir si vas a navegar por Internet y consultar correo estos dispositivos son más baratos y cómodos que los PCs.

    Puedes si estas interesado

    2.- ¿Cuanto dinero quieres gastar?

    Definir tus necesidades y estar seguro de lo que buscas hará que tu presupuesto no se dispare. Puedes consultar esta guía paso a paso en la cual verás las diferentes posibilidades que tienes dependiendo de para que vas a usar el dispositivo:

    ¿Qué computadora se adapta mejor a tus necesidades?

    Es muy común gastar dinero en componentes que después en tu uso diario no vas a necesitar y sin embargo olvidarte de aquellos que son esenciales. Que seas, por ejemplo, un jugador exigente no significa que debas comprarte un disco duro SSD de $500 eso no ayudara a que tus juegos se muevan de forma más fluida.

    3.- ¿No puedes actualizar una antigua?

    Existen varias ocasiones en que una actualización puede hacer que un equipo que tienes por ahí medio olvidado te pueda servir. Si el problema es de velocidad y notas mucho acceso al disco quizás añadiendo algo de RAM el equipo puede mejorar, puedes consultar precios aquí

    Los SSD son discos de estado sólido mucho más rápidos que los normales pero por desgracia mucho más caros. Comprar uno pequeño para tu sistema operativo y esos programas que más usas puede hacer que tu computadora vuele. Puedes consultar precios de SSD en .

    4.- ¿Qué tipo de PC necesitas?

    En el mercado tienes muchos tipos de equipos. Cada uno de ellos se puede adaptar mejor o peor a tus necesidades luego es necesario conocerlos todos antes de decidirte.

    AIO

    Este tipo de equipos se empiezan a poner de moda debido a que cada vez la tecnología permite reducir el tamaño de los componentes. Una computadora AOI, all in one en Ingles, es aquella en que el monitor y la CPU van unidos. Puedes ver el precio de AIO.

    Si tienes problemas de espacio o te gusta el diseño es una opción muy recomendable.

    Escritorio

    El equipo normal de toda la vida. Antes de comprar una comprueba que tienes espacio y que va a estar en un sitio limpio y ventilado. Las computadoras actuales se calientan y pueden tener problemas en caso contrario. Consulta Laptop

    Los portátiles de toda la vida. Su mayor problema, aunque vemos como cada día los fabricantes luchan contra esto, es la duración de su batería. No es extraño como muchos acaban siendo fijos ya que no puedes moverlos. Puedes consultar

    5.- ¿Comprar en tienda o por correo?

    Bueno ya parece que tienes claro que quieres un PC y el tipo que necesitas. Es lógico tener ciertos miedos a la compra por correo sobre todo por Internet. Sin embargo y para conseguir el mejor precio debes de consultar en todas las tiendas disponibles.

    Si confías en el sitio donde compras no existe ninguna razón para no optar por la compra por correo si esta te da un precio más competitivo en la actualidad todas las tiendas son resellers que no es más que decir que actúan de simples comerciales para los fabricantes así que al final la garantía que obtienes es la misma

 

ORDENADORES PORTATILES A RECOMENDACION

 

Lenovo Yoga 3 Pro

Se trata de un equipo ligero y delgado, convertido en uno de los ultrabooks más atractivos del mercado hoy en día. Sus anteriores generaciones le conceden una experiencia en el mercado que ha sabido aprovechar, y si a ello le sumamos las actualizaciones que le han realizado con lo último en hardware disponible (procesadores Core i7 de quinta generación), parece claro que nos encontramos ante uno de los mejores convertibles de gama alta.

 

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Lenovo Yoga 3 Pro  ¿Cuáles son los mejores ordenadores portátiles 2015?: Lenovo Yoga 3 Pro

 

 

  • Tamaño: 13,3 pulgadas
  • Dimensiones: 33 x 22,8 x 1,27 cm
  • Peso: 1,19 kg
  • Resolución: QHD+ (3200 x 1800 píxeles)
  • Densidad: 276 ppp
  • Táctil, con hasta 10 puntos de presión simultáneos.
  • Teclado retroiluminado
  • Procesador CPU: Intel Core M-5Y70
  • Número de núcleos: 2
  • Potencia: hasta 2,6 GHz
  • Memoria RAM: 8 GB
  • Capacidad: Hasta 512 GB en formato SSD
  • Ampliación de memoria con lector de tarjetas cuatro en uno.
  • Sonido: Waves Audio, dos altavoces JBL y micrófono.
  • Sistema operativo: Windows 8.1 de 64 bits
  • Autonomía: Batería de polímeros de 4 celdas. Hasta 7,2 horas de uso.

 

 

 

Asus Transformer Book Chi T300

Extrema delgadez en un equipo convertible que se sitúa entre lo más llamativo a nivel de diseño de los últimos tiempos. También cuenta con otro elemento llamativo y novedoso, un soporte LTE integrado en el equipo que lo orienta de manera especial a los trabajadores móviles.

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Asus Transformer Chi T300  ¿Cuáles son los mejores ordenadores portátiles 2015?: Asus Transformer Chi T300

 

 

  • Tamaño: 12,5 pulgadas
  • Dimensiones: 317,8 x 191,6 x 16,5 cm
  • Peso: 720 gramos (con teclado 1,4 kg)
  • Resolución: 2.560 x 1.440 píxeles
  • Procesador: Intel Core M (de la generación Broadwell). En concreto Intel Core M5Y71
  • Enganche para unir la zona de panel y el teclado, por lo que podremos utilizarlo como tablet.
  • Potencia: hasta 2,9 GHz
  • Memoria RAM: 4GB u 8GB
  • Capacidad: 64 GB o 128 GB en formato iSSD

 

 

 

Lenovo ThinkPad T550

Nos proporciona una pantalla táctil con la impresionante resolución 3K (2880 x 1620 píxeles), además de ganar en potencia y reducir en peso y grosor respecto a los modelos anteriores. Así, se nos ofrece un portátil bastante potente y profesional a un precio bastante asequible.

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Lenovo ThinkPad T550  ¿Cuáles son los mejores ordenadores portátiles 2015?: Lenovo ThinkPad T550

 

 

  • Tamaño: 15,6 pulgadas
  • Peso: 2,26 Kg
  • Resolución: 3K con 2.880 x 1.620 píxeles (capacidad de función táctil)
  • Procesador:  Intel Core i7 (generación Broadwell)
  • Memoria RAM: máximo de 16 GB de RAM
  • Tres puertos USB 3.0 de alta velocidad (tasas de transeferencia 10 veces más rápidas que el USB tradicional)
  • Memoria interna de hasta 512 GB en formato SSD
  • Altavoces Dolby Home Theater v4.
  • Autonomía: sistema de doble batería de hasta 17 horas. Caso de una sola: 10,5 horas.

 

 

 

Toshiba Portégé Z20t

Se trata de un ultrabook profesional híbrido que podremos utilizar tanto como portátil así como en formato tablet, ya que su pantalla es removible (se puede acoplar en sentido opuesto al teclado). Nacido con la finalidad de competir con el Surface Pro 3 a través de su gran versatilidad, portabilidad y potencia. Incluye un lápiz digital Wacom que es capaz de detectar hasta 2048 puntos de presión.

 

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Toshiba Portégé Z20t  ¿Cuáles son los mejores ordenadores portátiles 2015?: Toshiba Portégé Z20t

 

 

  • Tamaño: 12,5 pulgadas con soporte multitáctil con hasta 10 puntos de contacto. Pantalla táctil IPS Full HD
  • Peso: 1,59 Kg (sólo tablet: 799 gr)
  • Teclado resistente a derrames
  • Gráficos: Intel HD Graphics 5300
  • Almacenamiento: hasta 256 GB SSD
  • Memoria: hasta 8 GB LPDDR3
  • Procesador: Intel Core M
  • Dimensiones: 30,9 x 21,5 x 2,1 cm (tablet: 30,9 x 19,9 x 0,88 cm)
  • Resolución: Full HD con tecnología IPS
  • Conectividad Wi-Fi 802.11ac y Bluetooth 4.0.
  • Autonomía: hasta 17,4 horas (en caso de utilizarlo únicamente como tablet sería de 9,1 horas)

 

 

 

Acer Aspire V17 Nitro

Absoluta vocación mutimedia con pantallas LCD con retroiluminación LED, además de 4 altavoces con una potencia de salida de 8W en total, con capacidad de reproducción de sonido envolvente gracias al sistema Colby Digital Plus Home Theater. También incorporan una potente tarjeta gráfica Nvidia GeForce 860M.

 

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Acer Aspire V17 Nitro

 

  • Tamaño: 17,3 pulgadas
  • Peso: 3 Kg aproximadamente
  • Resolución: 1920 x 1080 píxeles (Full HD). Pantalla LCD con retroiluminación LED.
  • Cámara 3D Intel RealSense 3D (movimientos naturales en 3 dimensiones)
  • Audio: 4 altavoces con potencia de salida total de 8W. Reproducción de sonido envolvente con el sistema Dolby Digital Plus Home Theater.
  • Tarjeta gráfica: Nvidia GeForce 860M con hasta 4 GB de memoria VRAM DDR5.
  • Procesadores: Intel Core i7470HQ, cuádruple núcleo y de cuarta generación completables hasta 16 GB de memoria RAM.
  • Almacenamiento: posibilidades de discos duros de hasta 1 TB y por unidades de estado sólido (SSD) de 256 o 128 GB.
  • Puerto Ehernet y WiFi compatible con especificación  802.11ac con antenas duales para trabajar en bandas 5 GHz y 2,4 GHz.
  • Sistema de eliminación de polvo con ventilador con palas que disipa rápido el calor y produce poco ruido.
  • Salida de video digital HDMI
  • Autonomía: de iones de litio, con capacidad de 4.450 mAh

 

 

 

MacBook Pro Retina

Sorprende la nitidez y resolución de su pantalla, y destaca la extrema delgadez del portátil. Gran potencia y capacidad en la batería. Destaca la optimización del sistema operativo, algo a lo que ya nos tiene acostumbrada la compañía de Cupertino.

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Apple MacBook Pro Retina¿Cuáles son los mejores ordenadores portátiles 2015?: Apple MacBook Pro Retina

 

 

  • Tamaño: 15 pulgadas.
  • Dimensiones: 35,9 x 24,7 x 1,8 cm
  • Peso: 2 Kg
  • Resolución pantalla: 2880 x 1800 píxeles
  • Procesador: Intel Core i7 con velocidad de 2,2 GHz (4 procesadores)
  • Capacidad de la memoria RAM: 16384 MB
  • Memoria máxima compatible: 16 GB
  • Capacidad disco duro: 256 GB
  • Sistema operativo: Mac OS X Mavericks
  • Autonomía: batería de polímero de litio, con 8 horas de duración media.

 

 

 

Dell Alienware 17

No son baratos pero a cambio ofrecen potencia, diseño y calidad de construcción. El portátil que todo amante de los videojuegos quisiera tener (podemos reconocerlo por ser utilizado por Sheldon Cooper, protagonista estelar de la popular serie “Big Bang Theory”). Podemos encontrar en él las mejores gráficas del mercado, y gran potencial en cuanto a almacenamiento y conectividad.

 

¿Cuáles son los mejores ordenadores portátiles 2015?: Dell Alienware 17

  • Procesador: Cuarta generación del procesador IntelCore i7-4910MQ (Quad-Core, 8 MB Cache, Overclocked up to 4.1 GHz)
  • Memoria: DDR3L de 16 GB a 1600 MHz (4 x 4 GB)
  • Disco: Unidad de estadio sólido mSATA (como unidad de inicio) de 256 GB + SATA de 1 TB y 6 Gb/s a 5400 rpm
  • Gráficos: AMD Radeon™ R9 M290X con GDDR5 de 4 GB
  • Batería: Batería de iones de litio de 8 celdas (86 W/h)
  • Pantalla: 17,3″ WLED antirreflectante con resolución Ful HD (1920×1080) de 439,42 mm
  • Peso: 4,1501 kg (peso mínimo)

 

Y hasta aquí hemos llegado. Hemos hecho una pequeña lista con siete de los mejores ordenadores portátiles que encontraremos en el mercado en este año 2015. Evidentemente, la lista podría haber sido mucho más larga, pero no era cuestión de inundar de información al personal con tropecientos ordenadores portátiles. De todos modos, podéis utilizar los comentarios para hacernos llegar vuestras opiniones acerca de sí creéis que hay algún ordenador portátil que merece estar en la lista.

¿Cuál de los ordenadores portátiles enunciados se ajusta mñas a vuestras necesidades? ¿A qué prestaciones dais mayor protagonismo o prioridad a la hora de elegir un ordenador portátil?

ALGUNOS ORDENADORES DE SOBREMESA

Bienvenidos a nuestra guía sobre los mejores ordenadores de sobremesa baratos del mercado.

Los ordenadores se han convertido en una herramienta fundamental en el día a día de las personas, profesionales freelance, autónomos y las empresas, por ello queremos mostrarte un breve listado con los mejores ordenadores de sobremesa que encontrarás en el mercado actualmente.

En esta completa guía hemos seleccionado los mejores modelos de ordenadores sobremesa baratos para que puedas elegir entre aquellos modelos de mayor calidad y mejor precio del mercado. Hemos comparado más de 30 tipos de ordenadores de sobremesa a la venta y hemos seleccionado aquellos que más se adaptan a tus necesidades, basándonos en calidad, precio, diseño y funcionalidades.

Conocer cuáles son las características técnicas, funcionalidades y particularidades de cada ordenador de sobremesa económico es esencial antes de tomar una decisión, ya que antes de realizar esta pequeña inversión resulta conveniente asegurarse de estar escogiendo la alternativa más acorde a nuestras necesidades.

En esta guía encontrarás 3 apartados clave que te ayudarán a escoger la mejor opción:

  • Antes de comprar ordenadores sobremesa baratos: Consejos clave

  • Comparativa de marcas y precios para los ordenadores sobremesa baratos

  • Los mejores ordenadores sobremesa baratos del mercado

La extensa gama de ordenadores que existe en el mercado resulta tan sumamente abrumadora que en ocasiones elegir la mejor opción puede convertirse en una misión imposible. Queremos resolver todas tus dudas a lo largo de esta guía para que dejes de preguntarte cuál es el mejor ordenador de sobremesa económico para ti.

Si ya tienes claro lo que quieres y prefieres ir directamente a las mejores ofertas, aquí tienes nuestras recomendaciones:

La mejor opción calidad-precio del momento

Dále un vistazo al catálogo general de ordenadores de escritorio aquí:

1. Antes de comprar ordenadores sobremesa baratos: Consejos clave

Los ordenadores de escritorio se han convertido en todo un clásico en el mundo de la informática y electrónica que, a pesar del transcurso de los años, no han dejado de venderse. Si lo tuyo no son las tablets ni los ordenadores portátiles y lo que te apasiona es el PC de escritorio de toda la vida, debes saber que cuentas con un extenso catálogo de posibilidades a tu alcance.

Los fieles seguidores de los ordenadores de sobremesa cuentan con una variedad verdaderamente interesante, pudiendo encontrar desde los clásicos equipos a atrevidos diseños. Una de las grandes ventajas que brindan este tipo de ordenadores es el precio, ya que el mismo resulta más económico en relación a los ordenadores portátiles o tablets, por lo que pueden hacerte ahorrar mucho dinero, especialmente si no dispones de mucho presupuesto para gastar.

Antes de elegir entre el gran elenco de alternativas a tu alcance, es recomendable que tengas en cuenta las características con las que debería contar tu ordenador de sobremesa:

  • Elige siempre aquel formato que mejor se ajuste a lo que necesitas: torre, AiO o bien Mini PC.

  • Asegúrate de contar con una memoria RAM de alta capacidad para evitar tener problemas de ningún tipo a futuro.

  • Si tu idea es jugar con tu ordenador a videojuegos es clave que disponga de una buena tarjeta gráfica.

  • Intenta elegir aquel modelo que posea al menos dos puertos USB 3.0, y mejor si éstos son frontales.

  • La combinación entre almacenamiento SSD y HDD es , sin lugar a dudas, una magnífica opción a elegir.

  • Determina cuál es el procesador que mejor se adapta a lo que precisas, ya que de ellos dependerá el rendimiento final.

Aunque pueda parecer una decisión fácil y rápida, son muchos los factores a tener en cuenta antes de decantarse por un modelo de ordenador de sobremesa u otro, por ello pretendemos arrojar luz sobre tus dudas y ponerte en bandeja aquellos modelos más interesantes y económicos del mercado.

2. Comparativa de marcas y precios para los ordenadores sobremesa baratos

Si te estás planteando renovar tu ordenador de sobremesa o bien quieres regresar a un clásico, ha llegado el momento de dar el paso. En el mercado se pueden encontrar alternativas que resultan verdaderamente interesantes y que se adaptarán perfectamente a tu presupuesto.

Este tipo de ordenadores te facilita el trabajo, ya que podrás trabajar durante horas con ellos e incluso dejarlos días sin apagar sin problema alguno. Si únicamente necesitas un ordenador para casa, un ordenador que no vayas a transportar, lo ideal es que optes por un ordenador de sobremesa, ya que ahorrarás una importante suma de dinero en relación a los ordenadores portátiles.

Piensa siempre en adquirir un PC si juegas a videojuegos, editas vídeos, descargas todo tipo de archivos y trabajas con multitud de aplicaciones, ya que se presenta como una alternativa realmente cómoda. Pero, ¿cómo saber cuál es el mejor equipo a elegir? ¿Cuáles son las características que un buen ordenador de sobremesa económico debería cumplir? Toma nota:

  • Formato: Si tienes claro que buscas un ordenador de sobremesa, lo ideal es que determines cual es el mejor formato para ti: torre, Mini PC o AiO. Los más clásicos optarán por la torre de toda la vida, mientras que quienes busquen un equipo más compacto se decantarán por un Mini PC. Por último, mencionar el formato AiO, de sublime estética y muy fácil de situar en cualquier zona de la casa.

  • Procesador: Si deseas adquirir un PC de sobremesa económico, opta por los Intel Core i3 o Intel Pentium, mientras que si prefieres una máquina más potente, los i5, i7 y los AMD Phenom II son la mejor alternativa a escoger.

  • Memoria RAM: Es importante que la memoria RAM de tu ordenador de sobremesa disponga de una capacidad mínima de 4 Gbytes para evitar tener ningún tipo de problema posterior de espacio.

  • Puertos USB: Es conveniente que tu ordenador de escritorio disponga de al menos dos puertos USB 3.0, intentando que éstos sean frontales para facilitar la conexión de tus aparatos.

  • Sistema operativo: Existen muchas posibilidades en este aspecto. Puedes optar por un ordenador de sobremesa sin sistema operativo para que tú le instales el que más te convenga. Como uno de los mejores sistemas operativos, especialmente para equipos poco potentes, se puede destacar Linux, ya que se trata del sistema que a más usuarios ha conquistado en los últimos años gracias a su filosofía “open source”.

Marcas de los ordenadores sobremesa baratos más populares

A pesar de que el mercado dispone de un amplio catálogo de marcas, no todos gozan del mismo prestigio, popularidad y calidad, por ello te presentamos las 3 marcas más recomendadas del sector:

  • HP: Esta marca de ordenadores de sobremesa ofrecen magníficas prestaciones a un precio verdaderamente económico. Señalar que los ordenadores HP han sido especialmente concebidos para aquellos usuarios que estén en busca de la mejor relación calidad-precio. Estos ordenadores son resistentes, duraderos y con diseños realmente contemporáneos.

  • VIBOX: Los ordenadores gamers por excelencia. ¡La marca para los más jugones!

  • Apple: Sin lugar a dudas se trata de otra de las marcas más reconocidas en el mercado gracias a su estupenda relación calidad-precio. Sus ordenadores se presentan con diseños sobrios pero a su vez modernos, resistentes y funcionales. No son los más baratos, pero se convierten en los más rentables gracias a la calidad de su hardware.

Rango de precios para los ordenadores sobremesa baratos

Es destacable mencionar que el rango de precios de unos ordenadores sobremesa baratos a otros puede variar considerablemente, ya los precios suelen ser bastante dispares entre sí en prácticamente todas las marcas y modelos.

Los modelos más sencillos como el Lenovo E50-00, apenas cuesta 255 Euros, aunque tampoco hay que olvidar el modelo Compaq 100-310ns, con un irrisorio precio de tan solo 259 Euros. Entre los modelos algo más costosos se pueden mencionar el modelo Apple iMac, con un precio de menos de 1870 Euros, o el modelo VIBOX Goliath, con un precio que alcanza los 5450 Euros.

3. Los mejores ordenadores de sobremesa baratos del mercado

A continuación te ofrecemos un listado con los mejores ordenadores sobremesa baratos del mercado, un listado que debes tener muy en cuenta si deseas elegir uno de los ordenadores más interesantes del mercado.

Hemos dividido la lista en 3 categorías: ordenadores de escritorio convencionales, ordenadores todo en uno y ordenadores para gaming.

¡Empezamos!

Lenovo E50

comparativa ordenadores de sobremesa baratosEl ordenador de escritorio más vendido del momento, a un precio muy muy ajustado (menos de 300€).

Con procesador Intel Pentium J2900 QuadCore a una velocidad de 2.41 GHz y 4GB de memoria RAM, este modelo goza de un diseño moderno pero a su vez minimalista y elegante.

Cuenta con el sistema operativo 8.1 y 500 GB de capacidad del disco duro.

Es uno de los modelos más económicos del mercado y a su vez de mayor calidad, de modo que es perfecto para quienes buscan un ordenador sencillo a un bajo costo.

Opiniones del ordenador de mesa Lenovo E50

Es fenomenal. Después de dar una vuelta por internet es el mejor que encontrado respeto a precio calidad. Un saludo
Saul 4 de Junio de 2015

Otra opción muy recomendada es este modelo de Packard Bell.

Si disponéis de un poco más de presupuesto, os podéis decantar por el iMac, toda una garantía:

Apple iMac

imac baratoEste estupendo ordenador de sobremesa ofrece un disco duro de 1000 GB, procesador Intel Core i5 a 3.4 GHz y 8 GB de memoria RAM.

El sistema operativo de este modelo es Mac OS X Mountain Lion.

Posee una pantalla de 27 pulgadas con una resolución máxima de 2560 x 1440 píxeles.

Destacar que cuenta con 4 procesadores y una tarjeta gráfica NVIDIA GeForce GT 755M.

Me lo compré para Navidades y la verdad es que solo montarlo ya te enamoras del imac, imagen y sonidos perfectos, rapidísimo en abrir programas … el sistema operativo es fácil de usar si tienes unas nociones de informática ( en pocos días te acostumbras 100 % ) yo tenía dudas por el precio pero no me arrepiento en absoluto.Si lo compráis no os arrepentiréis
Nata 19 de Junio de 2015

MSI DC111-027XEU

ordenadores de sobremesa miniEs un modelo de ordenador de sobremesa mini, un modelo que apenas ocupa espacio.

Este ordenador cuenta con memoria RAM de 4 GB, 6 puertos USB y un disco duro de 500 GB.

El procesador es Intel Mobile Gen ULV 3nd con velocidad 1.8 GHz.

Posee u peso realmente ligero de tan solo 900 gramos, además de 6 puertos USB. Dispone de salidas HDMI y VGA para el contenido multimedia en la TV.

El ordenador es silencioso,ocupa espacio reducido y una buena relación calidad – precio. Ideal para conectarlo a tu smart tv
Miriam 30 de Mayo de 2015

Ordenadores todo en uno

El futuro de los ordenadores de escritorio ya ha llegado. Nuestras recomendaciones son:

Asus Transformer AiO P1801

ordenadores todo en uno baratosEste moderno y peculiar ordenador de sobremesa cuenta con un diseño verdaderamente aconsejable, ya que cuentas con ordenador de sobremesa y tablet en una misma herramienta.

Se transforma a tu antojo según lo que necesites en cada momento. Cuenta con procesador Inter Core i5 3350P a una velocidad de 3.1 GHz, 8 GB de memoria RAM, una pantalla IPS Full HD desmontable con ángulo de visión de 178° y sistema operativo Windows 8.

Ver ficha completa aquí:

Pros: Como PC tiene potencia más que suficiente incluso para aplicaciones de video 4K. La posibilidad de trabajar directamente en la pantalla alejada de la base le da versatilidad y mucha comodidad: Operar con las manos en la pantalla en la posición que te resulte más cómoda en cada momento es una experiencia muy gratificante. Como tablet Android tiene potencia de sobra (internet, juegos, gráficos) y la pantalla de 18 pulgadas es una gozada (los peques la disfrutan a tope). El cambio entre sistemas es rápido y muy eficaz. Estética limpia y compacta.Contras: La posibilidad de usar la pantalla con Windows fuera de la base depende del router wifi. Al retirarla hay un pequeño decalaje hasta que consigue sincronizarse con la base. Cuando el router wifi tiene problemas falla por lo que conviene comprobar antes que la conexión es correcta. Con Android no hay problemas

Me parece una adquisición excelente. Es una pena que debido a la presión de Microsoft y Google sea esta la única generación de compatibles que va a estar en el mercado.

Edu 14 de Mayo de 2015

Asus ET2321INTH

ordenadores todo en uno asus baratosCon pantalla IPS de 23 pulgadas con resolución HD 1920 x 1080 píxeles, disco duro de 1 TB y memoria RAM de 4 GB a 1600 MHz, este modelo de Asus es una apuesta seguro para quienes busquen alta calidad a un precio estupendo. El sistema operativo de este ordenador es Windows 8.

Cuenta con procesador Intel Core i3 4010U, así como salida y entrada HDMI para poder conectar consolas de videojuegos, reproductores Blu-Ray, entre otros dispositivos.

Muy recomendable. Cómodo, ideal para toda la familia.
Jośe Carlos 8 de Abril de 2015

Acabamos con un sector en auge, los ordenadores de sobremesa para gamers. Vibox es la marca de referencia en este ámbito:

VIBOX Precision 6

ordenadores gamer baratosEl mejor ordenador gamer barato.

Este ordenador de sobremesa  posee unas dimensiones de 58,6 x 49,6 x 27 cm. La capacidad del disco duro es de 1000 GB y posee una tarjeta gráfica Nvidia Geforce GT 730 de 1 GB.

Cuenta con memoria RAM de 1GB y procesador AMD Athlon 64 FX con velocidad 4.20 GHz. Ideal para quienes busquen algo sencillo a buen precio.

Opiniones

Yo venía buscando un PC lo suficientemente bueno para jugar juegos de la época Playstation 3/Xbox 360 sin tener problemas extremos de latencia y que tuviera la rapidez necesaria para navegar por el escritorio y usar varias aplicaciones al mismo tiempo sin incidencias de parones, etc, y este PC lo cumple con nota de 10. Es una auténtica maravilla para jugar on-line con música de fondo a través de Youtube o incluso haciendo llamada grupal y ese tipo de cosas que se hacen en segundo plano, sin tener ni una pizca de latencia ni sobrecarga en el procesador y mucho menos en la RAM ya que son 8GB y va de sobra. No hace un ruido estruendoso, lo normal para tener la potencia que tiene,para escucharlo funcionar tendrías que tener la casa totalmente en silencio como para notarlo.Con respecto a la tarjeta gráfica, si lo que buscas es jugar, no le puedes pedir unos gráficos ULTRA a 1080p porque no lo va a soportar, es una tarjeta de gama media/alta, contiene 5GB, 2 de ellos dedicados a gráficos y el resto al sistema. Puedo jugar sin problemas juegos como Assassin’s Creed: Black flag, Skyrim, Dark souls, DeadSpace, etc, a 720p todos ellos con opciones de medio a alto, si buscas un rendimiento de juego a la par de una PS3 o Xbox 360 esta tarjeta gráfica lo iguala bastante incluso lo sobrepasa. De todas formas siendo un “custom” puedes cambiarle la tarjeta gráfica que hay bastante mejores al mismo precio, pero por mi parte no lo veo necesario.

Raul 14 de Junio de 2015

VIBOX Dragon 9

mejor ordenador gaming barato 2015La opción superior por si tenemos más presupuesto.

Este ordenador de sobremesa especial para el gaming cuenta con el sistema operativo Windows 8 y procesador Intel Core i7 con velocidad de 4 GHz.

Este PC cuenta con 2000 GB de almacenamiento y memoria tipo DDR3 SDRAM. Su tarjeta gráfica es NVIDIA GeForce GTX 960.

MERCADEO MODERNO


INTRODUCCIÓN

Definir nuestro negocio es definir cuál es la razón de ser y cuál es la necesidad de los consumidores que nuestro producto satisface. Para ello, entonces necesitamos saber cuáles son las necesidades màs frecuentes que satisfacen los clientes cuando compran un producto.

Es muy frecuente que lo empresarios no tengan claro què es lo que venden. Muchas veces parece irrelevante preguntarse què vendemos. Evidentemente, todos los vendedores conocen los productos que ofrecen a los consumidores. Pero no necesariamente conocen que buscan los consumidores en nuestros productos.

En la mayorìa de los casos, los compradores “consumen” algo (o mucho) màs que el producto en sì. Los productos contienen algunos elementos adicionales (que los empresarios deben aprender a identificar) que los hacen màs atractivos: categorías, cualidades, servicio, entre otros.

Podemos citar algunos ejemplos . Las industrias de bebidas alcohólicas “venden” alegrìa, diversión, además de la bebida misma. Algunos supermercados “venden” marca, exclusividad, estatus o diseño. La industria de comèsticos “vende” belleza, esperanza, y aceptación. Incluso hay algunos productos que “venden” seguridad, confianza y felicidad. Y los consumidores estàn dispuestos a pagar por ello.

Estas cualidades son las necesidades ocultas de los clientes. Si uno es realmente capaz de determinar que es lo que realmente compran o desean comprar sus clientes, estarà en condiciones de ofrecerles lo que demandan, pero muchas veces no es tan evidente determinar que compran inclusive para los mismos consumidores.

Entonces para definir nuestro negocio debemos determinar las necesidades ocultas que los consumidores satisfacen cuando compran nuestros productos. Luego y sòlo entonces debemos preguntar que posibilidades tenemos de cumplir con nuestros clientes.

Determinar que es lo que quieren nuestros clientes y que es lo que les ofrecemos o vendemos no es tan fácil pero el marketing ayuda bastante para averiguarlo.

Una empresa averigua primero que es lo que quiere el cliente para después producirlo. En ese objetivo el marketing se apoya en otras disciplinas como la economía (especialmente la microeconomía); las llamadas ciencias del comportamiento como la psicología, la sociología y la antropología cultural, y en la estadìstica.

Por cierto que el Marketing tambièn aporta lo suyo. Entre los estímulos principales de las ventas el marketing señala cinco de ellos como primordiales; el producto, el precio, el envase, la producción y la distribución. Màs adelante se verà con detalle estos puntos.

La frase clave es conocer el mercado. Las necesidades del mercado , es decir de los consumidores son las que dan la pauta para poder definir mejor que es lo que vamos a vender y a quienes asì como dònde y como lo haremos.

DEFINICIÓN:

El marketing, tambièn llamado mercadeo, es el arte ( y el conocimiento) de aprovechar bien las oportunidades de incrementar las ventas de la empresa.

Es una actitud empresarial que enseña a identificar, descubrir, conocer y dominar los productos y los servicios que satisfacen las necesidades de los clientes

En un estudio histórico del marketing se puede observar primero, los factores que causaron los cambios del marketing; segundo la herencia actual de antiguas prácticas e instituciones del marketing, y tercero, la relativa estabilidad a través del tiempo.

En una economía feudal, agraria o forestal, la población es en gran parte autosuficiente. Produce sus propios alimentos, hace sus propias telas y construye sus propias casas y utensilios. Hay muy poca especialización en el trabajo y muy poca necesidad de cualquier tipo de comercio. En el transcurrir del tiempo, sin embargo, comienza a nacer el concepto de división del trabajo y los artesanos concentran sus esfuerzos en la producción de aquel artículo en el que sobresalen. Esto da como resultado que cada hombre produce de algunos artículos más de lo que necesita, pero careciendo de los demás productos. En cuanto aparece una persona que produce más de lo que desea, o desea más de lo que produce, existe la base para el comercio y el comercio es el corazón del marketing.

Cuando el intercambio comienza a desarrollarse en las economías agrarias, lo hace sobre bases muy sencillas. La mayoría de los negocios lo son en pequeña escala sin especialización alguna en su dirección. Se desarrollan a partir de organizaciones artesanas familiares y se atiende principalmente a la producción, prestando muy poca o ninguna atención al marketing. De hecho la práctica normal es producir manualmente bajo pedido.

En el paso siguiente de la evolución histórica del marketing los pequeños productores comienzan a fabricar sus productos en mayor cantidad anticipándose a los pedidos futuros. Aparece una nueva división en el trabajo cuando un tipo de hombre de negocio comienza a ayudar a la venta de esa mayor producción. Este hombre -que actúa como ligazón entre productores y consumidores- es el intermediario.

Para ser más fácil la comunicación, la compra y la venta, las distintas partes interesadas tienden a agruparse geográficamente; de esta forma se crean los centros comerciales. Existen hoy en día algunas naciones que están atravesando esta etapa de desarrollo económico. Se puede apreciar que los refinamientos y los avances del marketing van en general de los avances de la civilización.

El marketing moderno en los Estados Unidos nació con la Revolución Industrial. Asociado o como sub-producto de la Revolución Industrial vino el crecimiento de los centros urbanos y el descenso de la población rural. La artesanía familiares se transformaron en fábricas y la gente pasó del campo a la ciudad buscando trabajo.

Crecieron las empresas de servicios para satisfacer las necesidades diarias de los obreros industriales que dejaron de ser autosuficientes. El marketing apenas se desarrolló durante la última mitad del siglo XIX y las dos primeras décadas del siglo XX. Todo el interés se centraba en el aumento de la producción debido a que la demanda del mercado excedía a la oferta del producto.

De hecho, el marketing masivo fue un requisito previo para la producción en serie. Solamente con un sistema de marketing masivo pudieron funcionar las fabricas en un nivel óptimo de la producción, con la ventaja de poder disfrutar de las economías de producción derivado de la dimensión a medida en que se desarrolló la economía fabril y se hizo más compleja, los canales por lo que fluyó el comercio se hicieron mayores; tuvieron que encontrarse métodos mejores para vender la producción industrial. El aumento de especialistas en marketing fue el paso obligatorio de este desarrollo evolutivo.

EVOLUCION DEL CONCEPTO DE COMERCIALIZACION:

El concepto de comercializar parte de una simple preocupación por vender, y obtener utilidades.

El concepto de mercadeo ha ido modificándose de una orientación masiva, a lo que se ha dado en llamar mercadeo uno a uno (one-to-one). El mercadeo, como todo proceso, es dinámico y cambia, se modifica constantemente. Este proceso, pese a lo que se crea, no ha ocurrido al mismo tiempo en todos los países, o regiones del mundo.

Es en los Estados Unidos de América donde el proceso ha pasado por todas las fases que indicamos a continuación. Cada persona que lea este texto deberá identificar en qué estado de desarrollo del concepto de mercadeo y aplicación del mismo, se encuentran sus compañeros, superiores, empresa, barrio, ciudad, región, provincia o país. ¿Están en 1800, 1920 o en 1950?

Orientación a la Producción

Desde 1800 hasta los año 1920, las empresas en Europa y EE.UU. mostraban una clara orientación a la producción. Dado que todo lo que se produjera era consumido de inmediato, la manufactura determinaba las características de los productos. No era necesario comercializar para vender. Todo se consumía de inmediato, fuera lo que fuera lo que se producía. El consumidor no tenía tiempo de seleccionar ni forma, ni color, tomaba cualquier cosa. La demanda superaba la oferta.

Orientación a la Venta

A partir de la crisis del año 1920, donde la capacidad de compra se redujo al mínimo, se crearon y desarrollaron productos, que luego trataban de introducirse en el Mercado. Muchos de esos productos no tuvieron éxito, otros tuvieron éxito momentáneo. Se comienza a dar gran importancia a las ventas, como generador de ingresos. Se desarrollan técnicas destinadas a vender. (De aquí se origina la confusión corriente de los conceptos venta y mercadeo).

Orientación al MercadLos procesos de comercialización fueron analizados por las Universidades Americanas, Harvard en especial, y poco a poco se ha ido desarrollando toda una serie de teorías, para asegurar el éxito de cualquier actividad commercial.El concepto que dio origen al Mercadeo o Marketing (1950, Harvard, Teodore Levitt), fué el de orientar los productos al Grupo de Compradores (Mercado Meta) que los iba a consumir o usar. Junto con ello se dirige los esfuerzos de promoción a las masas (mas marketing), por medio de los medios masivos que comienzan a aparecer (cine, radio, televisión).

Mercadeo Uno a uno.

A partir de 1990, se refina el concepto de mercadeo orientado al cliente, y se comienza a crear productos y servicios orientados a personas en particular, con la utilización de complejos sistemas informáticos capaces de identificar clientes específicos y sus necesidades concretas. Los segmentos se van reduciendo hasta llegar a grupos meta altamente determinados, casi personas concretas, con nombre y apellido. Estos es dando a cada cual lo suyo. Este nuevo paso lo impulsa y permite la creación de nuevas, su reducción de precio y la Globalización de la economía.

(más…)

Editar

Evolución de las Computadoras

El desarrollo de las computadoras suele divisarse por generaciones y el criterio que se ha establecido para determinar el cambio de generación no está muy bien definido, pero aparentemente deben cumplirse al menos los siguientes requisitos:

  • la forma en que están construidas(hardware)
  • la forma en que el ser humano se comunica con ellas(hardware/software)

A continuación se presentan las características principales de éstas generaciones.

Primera Generación

Podemos decir que las computadoras de hoy, son inventos recientes que han evolucionado rápidamente. Esta evolución comenzó para el año 1947, cuando se fabricó en la Universidad de Pennsylvania, la ENIAC (Electronic Numerical Integrator And Calculator), la primera computadora electrónica, cuyo equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos al vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de acondicionador de aire, pero su característica principal, que era mil veces más rápida que cualquier calculadora de la época.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático John von Neumann. Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que hoy es considerado el padre de las computadoras. La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

En esta generación había un gran desconocimiento de las capacidades de los sistemas, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarcó la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

  • eran construidas por medio de tubos al vacío
  • programadas en lenguaje de máquina.

En esta época las máquinas eran grandes y costosas (de cientos de miles de dólares). En 1951 aparece la UNIVAC (UNIVersAl Computer), que fue el primer diseño comercial, disponía de mil palabras de memoria central, podía leer cintas magnéticas y se utilizó para procesar el censo de 1950 en los Estados Unidos. Este fue otro exitoso proyecto de Eckert y Mauchly.

Segunda Generación

Cerca de la década de 1960, donde se define la segunda generación, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse entre ellas, recibiendo el nombre de programación de sistemas.

Las características de la segunda generación son las siguientes:

  • están construidas con circuitos de transistores
  • se programan en nuevos lenguajes llamados lenguajes de alto nivel (COBOL y FORTRAN)

En esta generación aparecen diversas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de éstas se programaban con cintas perforadas y otras por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith, quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machine).

Tercera generación

Con los progresos de la electrónica y los avances de comunicación en la década de los 1960, surge la tercera generación de las computadoras.   Las características de esta generación fueron las siguientes:

  • su fabricación electrónica está basada en circuitos integrados
  • su manejo por medio de los lenguajes de control de los sistemas operativos.

A finales de la década de 1960, aparecen en el mercado las computadoras de tamaño mediano, o mini computadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas mini computadoras fueron las siguientes: la PDP – 8 y la PDP – 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard con varios modelos. La IBM produjo la serie 360 y 370.

Cuarta generación

Es entonces en la cuarta generación y a mediados de 1970, en donde aparecen los microprocesadores.   Estos son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extendió al mercado en general. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la dinámica social, llamada hoy “revolución de la informática”.

El Dr. Ted Hoff fue uno del los que comenzó ésta revolución con el primer microprocesador de la compañía Intel (Intel 4004). En 1970 el Intel 4004, marcó el inicio de una serie de procesadores, seguido entre otros, por el Intel 8088, utilizado en la primera computadora personal (PC), manufacturada por IBM. Esta evolución continúa hasta los más recientes: el Intel Pentium 4 y el Itanium.

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda más grande del mundo, antecedida tan sólo por IBM; y ésta por su parte es aún una de las cinco compañías más grandes del mundo.

En 1981 se vendieron aproximadamente 80,000 computadoras personales, al siguiente subió a 1,400,000. Entre 1984 y 1987 alrededor de 60 millones de computadoras personales, por lo que no queda duda de su impacto y penetración en el mercado.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas se manejan, han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario.

No todo son microcomputadoras, las mini computadoras y los grandes sistemas continúan en desarrollo. De hecho, las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes han desaparecido; por el contrario, su presencia es ineludible en esferas de control gubernamental, militar, industrial y educación.

Las llamadas supercomputadoras, como por ejemplo el modelo ASCI White de IBM, un proyecto para el Departamento de Energía Federal, puede ejecutar 12.28 teraflops (trillones de instrucciones por segundo) y simultáneamente procesar transacciones en el Web por cada hombre, mujer y niño que existe en el planeta, en tan solo un minuto. Esta máquina provee una capacidad de disco de sobre 160 trillones de bytes. Esto es 16,000 veces más capacidad que una PC promedio. Este sistema es mil veces más poderoso que la famosa “Deep Blue” de IBM, la supercomputadora que compitió contra el campeón mundial de ajedrez Garry Kasparov en 1987.

La historia presentada aquí, sólo resalta algunos aspectos y no incluye todos los avances en detalle que han acontecido durante la evolución de la computadora.

Podemos concluir que la historia de ésta asombrosa evolución no termina aquí y se espera que continúe con la llamada Quinta Generación, que estaría basada entre otras cosas, en inteligencia artificial, en donde las computadoras exhibirían características similares a la inteligencia humana.

imagenYoutube

Misterios del planeta Marte


th2DOQRPAFLa verdad empieza a aflorar; Científicos, biólogos y personal cercano a la NASA afirman que hubo vida en Marte y que su desaparición fue debida a dos explosiones nucleares masivas y otros; Hay vida humana terrestre y marciana hoy viviendo en Marte. Ra Station Club. 17 de agosto, 2015.marte2[1]

Hay numerosas anomalías inexplicables en el crater Gale marciano que apoyan la teoría de una catástrofe nuclear antigua en Marte según sostiene algún científico “atrevidillo”.

Isótopos nucleares en la atmósfera parecen ser pruebas suficientes para sospechar y confirmar que en Marte alguien hizo explotar una bomba de hidrógeno y que, según las pruebas de las mediciones y análisis del entorno, ocurrió en dos lugares de Marte:  Cydonia  y Galaxia Chaos

La NASA en Marte ha descubierto una región con características inexplicables en la superficie del planeta no tan rojo. La región considerada como anómala por la NASA se encuentra justo bajo el Monte de Sharp donde los instrumentos de Curiosity registraron una superficie de tres metros de diámetro que muestra emisión extremadamente alta de neutrones.

Las mediciones técnicas corroboran la teoría postulada por el físico estadounidense John E. Brandenburgo, que desde 2011 establece que el color rojo característico de Marte es debido a una explosión termonuclear.

“La superficie de Marte está cubierta de sustancias radiactivas como el uranio, el torio y el potasio radiactivo. Una explosión nuclear podría haber dejado restos por todo el planeta “, dijo en una entrevista.

Su hipótesis se basa en la alta concentración de xenón-129, uranio y el torio que se encuentra en la atmósfera marciana, y detectada gracias a la sonda espacial Odyssey.

Brandenburg fue más allá en sus afirmaciones diciendo que:  “en Marte hubo dos civilizaciones  de “humanoides”, que fueron llamados los CYDONIANS y UTOPICS, que habrían sido exterminados por el bombardeo nuclear de otra raza alienígena”. ……. nada menos y nada más.

Dr. John Brandenburg afirma que una antigua civilización de Marte fue arrasada por una bomba nuclear. Una capa delgada de sustancias radiactivas como el uranio, torio (gráfico), y potasio radiactivo en la superficie supuestamente proporcionan evidencias suficientes para el científico para confirmar esta teoría… .

“Ahora hemos encontrado pruebas de la masa fundida de vidrio nuclear “trinitita” (estos materiales se encuentran en la Tierra en el lugar donde se han detonado armas nucleares), en ambos lugares de las explosiones en superficie marciana. El ‘Dr Brandenburgo reveló a MailOnline.

“Esto apoya firmemente mi hipótesis de explosiones en el aire nucleares masivas.

“Hasta ahora ningún científico ha ofrecido ninguna otra explicación para este conjunto de datos.”

Por otro lado encontramos esto… .  Reconocidos profesionales ligados a la NASA afirman cuestiones similares pero a la vez superpuestas, la una no pude darse si la otra fuera realidad o eso suponemos, ustedes juzgan, nosotros ya publicamos diariamente nuestras conclusiones más allá de que nos mienten como a niños.

De momento, alguien dice algo coherente, que falta hace.

RA   STATION   CLUB

Fuente: http://www.rastationclub.blogspot.com.es/2015/08/la-verdad-empieza-aflorar-cientificos-y.html

2 noviembre, 2015 | Categorías: Misterios del planeta Marte | Deja un comentario

Cielo azul en Marte ya hubo en 2004 y 2011, la magia continua… Ra Station Club. 9 octubre, 2015.

RA   STATION   CLUB

Fuente: http://www.rastationclub.blogspot.com.es/2015/10/cielo-azul-en-marte-ya-hubo-en-2004-y.html

12 octubre, 2015 | Categorías: Misterios del planeta Marte | Deja un comentario

Avalancha en Marte. Ra Station Club. 7 octubre, 2015.

NASA y CNN comunican noticias sobre el circo espacial.  Un desprendimiento de nieve y lo que esto significa. Que hay agua… Que hay movimientos estacionales. Que es muy posible nos estén engañando con las temperaturas de Marte. Esto acaba de empezar…

Fuente:http://www.rastationclub.blogspot.com.es/2015/10/avalancha-en-marte-ra-station-club-7.html

7 octubre, 2015 | Categorías: Misterios del planeta Marte | Deja un comentario

Lo que oculta el anuncio de “Agua en Marte”

LO QUE OCULTA EL ANUNCIO DE “AGUA EN MARTE”thDLP9KKE3

Es la noticia del día. Extrañamente, un tema “científico” está ocupando la primera plana en los periódicos y los horarios de “prime time” noticiosos. El descubrimiento –anunciado oficialmente por la NASA- de agua en estado líquido sobre la superficie marciana parece haber abierto las puertas de un reverdecido entusiasmo global por la exploración del planeta rojo y su eventual, futura colonización. Así, de pronto nos enteramos que es un argentino el ganador de un concurso generado desde la agencia espacial norteamericana para diseñar los módulos habitacionales que ocupará esa futura colonia, y ya son más de ochenta mil los terráqueos dispuestos a ser los pioneros de ese ¿nuevo mundo?.

La algarabía por el descubrimiento (que no, no se trata que las cámaras de la sonda MRO hayan captado un prístino mar oceánico y ni siquiera una turbia laguna; sino estrías que cambian de coloración en algunos cráteres del hemisferio sur atribuibles a “agua que aflora en períodos estivales”) ha llevado incluso a que comenzara a especularse seriamente respecto de la fecha de la primera misión tripulada a nuestro vecino planetario: programada originalmente para el año 2030, ya se habla firmemente de adelantarla al 2025 y, quizás, al 2022. Y, hasta aquí, no estamos diciendo nada que el lector avisado no haya leído ya en portales de Internet o en el diario matutino con el que acompaña su café.

De modo que en lo que quiero detenerme es en lo que parece estar escapándosele a unos cuantos. Y es que la noticia del descubrimiento del líquido elemento en Marte no es la noticia. La noticia es que sea noticia la noticia. Y preguntarnos si esto es casual.

Todos sabemos –pero, por la misma razón que explicaré, parecemos olvidar prontamente- que nada hay más frágil, más lábil, más fugaz que la memoria popular. Si así no fuera, no podrían (tanto desde el ámbito científico como social, político, etc.) volver a presentarnos cada tanto las mismas “novedades” como si fuera la primera vez que se anuncia. ¿Quieren un inevitable ejemplo bien “argento”?: el pretendido “primer satélite argentino”, el ARSAT 1, lanzado con bombos y platillos en 2014: como los periodistas –primeros que nadie en tener el deber de informarse correctamente deberían haber hecho antes de, simplemente, repetir lo que leen por ahí- deberían haber sabido, el primer satélite argentino fue el Lusat I, en tiempos tan tempranos como 1990, un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

En 1996 siguieron los satélites profesionales, en agosto el MU-SAT, conocido también como «Víctor I» y en noviembre la comisión estatal CONAE inició, con el SAC B (Satélites de Aplicaciones Científicas), su serie de satélites científicos como parte de un Plan Espacial Nacional, Argentina en el Espacio, implementado por la Comisión Nacional de Actividades Espaciales (CONAE). También existe un satélite, el Pehuensat-1, diseñado y elaborado por la Universidad Nacional del Comahue y lanzado en enero de 2007, desde la India.

Esto –que tal vez sirva de lección, cuando menos, a los colegas que lean este artículo- sirve para ratificar el concepto arriba expresado. Algo es noticia hoy; en unos meses es apenas un vago recuerdo. Y en unos pocos años, podemos “relanzarla” nuevamente con la casi certeza que todos creerán que es una novedad.

Y con Marte pasa exactamente eso. Ya se había anunciado el descubrimiento de agua, al menos,siete veces. En 1971, la sonda Mariner 9 fotografió evidencia de la misma en cauces secos de ríos y restos de deltas. Las Viking, de 1976, detectaron agua congelada en el polo norte marciano. En 2002 la NASA anunció que la Mars Odissey había encontrado agua en forma de hielo en el subsuelo marciano, en volumen como “para llenar dos veces el lago Michigan, y eso es posiblemente sólo la punta del iceberg”. Lo mismo hizo el Opportunity en 2004.

El New York Times publica en 2006 que la Mars Global Surveyor había encontrado más evidencias de agua subterránea, bajo el título de “Pruebas sólidas de existencia de vida fuera de la Tierra”. En 2008, el mismo periódico anuncia que la sonda Phoenix ratificaba las pruebas del 2006. Y en 2013 la“Curiosity” demostraba cómo ciertos compuestos químicos reaccionaban en esa superficie como ante la presencia de agua. Siete veces. Pero ayer la NASA anuncia su “descubrimiento” y todos repiten como pericos.

¿Qué oculta esta maniobra?

Si descubrimientos “oficiales” de esta magnitud se olvidan con tanta facilidad, qué no pasará con descubrimientos “extraoficiales”, esto es, hallazgos sobre la superficie marciana (o en sus cercanbías) que se filtran al rígido control de la NASA. Hagamos un recuento:

– La “cara marciana” fotografiada por las Viking: gigantesco rostro vuelto hacia el cielo en la planicie de Cydonia.

– Las “ruinas mayas” (por su aspecto) fotografiadas por las sondas rusas Phobos 1 y 2.

– La “sombra” con aspecto de habano que se proyectaba sobre la regiòn de Arsia Mons, proveniente al aparecer de algún gigantesco objeto volador, en 1990.

Las extrañas luces sobre el asteroide “Ceres”, cercano a Marte.Ceres-cerca[1]

– El “haz luminoso” ciertos atardeceres el ya mencionado Curiosity ha fotografiado, elevándose al cielo

Y sin duda podríamos enlistar muchos más.

Aquí es donde comienza a aparecer otro “fenómeno social” interesante: los “trolls”. El término, en el mundo cibernáutico, se aplica a individuos que por simple aburrimiento o intereses creados se dedican a crear perfiles y cuentas falsas en redes sociales e internet para “embarrar la cancha”., atacando con insultos o, más sutilmente, divulgando “fakes” o “mercadería podrida”.

Algunos se han tomado el tiempo de revisar los archivos de fotos que la NASA pone disponible al público (centenares de miles; hay que tener tiempo libre, realmente…) para revisarlas una por una y ver cuál, acentuando sus contornos, aumentando su tamaño o pixelándola puede difundirse en la Web para descalificar a quienes buscan evidencia de vida inteligente marciana: así aparece imágenes que serían jocosas de no esconder aviesos intereses un ataúd, un casco militar nazi, un celular…

Así que para cuando un investigador, en búsqueda paciente, pone en exposición alguna foto que merecería un estudio más profundo, los “trolls” comienzan a subir fotos ridículas –supuestamente de la misma fuente- con lo que el enigmas planteado por el primero cae en el descrédito público.

Pero regresemos al tan cacareado “descubrimiento”. Si no es la primera vez que fehacientemente se descubre agua en Marte, ¿porqué la NASA –o las fuerzas políticas, militares, sociales de las que es tributaria- montan todo este “show”?.

Primera posibilidad: se nos está preparando para un anuncio aún más trascendente. Que en Marte hay, o ha habido, vida avanzada. Y que quizás hay –o ha habido- una verdadera civilización. Ya desaparecida. O no. De acuerdo a esta teoría, anunciarlo de manera imprevista sería traumática en términos culturales y sociales, por lo que hay que ir realizando un “condicionamiento” durante años de manera que el ideario colectivo digiera de mejor manera semejante noticia.

Pero hay una segunda posibilidad, si se quiere, más inquietante: que dentro de pocas semanas aparezcan los científicos de la NASA desmintiendo esta información, informando que se ha confundido un fenómeno natural con otro cualquiera. ¿Y esto, para qué?.

Para provocar lo que en Psicología Conductista se llama un “refuerzo de Skinner” inverso: un aviso, la negación del aviso, otro aviso, la nueva negación del mismo, crea en la mentalidad –individual y colectiva- un hastío, indiferencia y hasta escepticismo defensivo.

Así,. Si ocurriera “algo” imprevisto –actividad inteligente no humana sobre la superficie marciana, por caso- y se filtrara por ámbitos no oficiales resultaría muy sencillo “debunkearla” acudiendo al recuerdo residual de las pasadas “negaciones”.

Ahora bien, el lector puede preguntarse: “Pero…¿porqué tanto esfuerzo en ocultar, entonces, la realidad de la vida inteligente extraterrestre?”. En lo personal no puedo menos que sonreír con cierta ternura cuando gente pretendidamente inteligente me miran con cierto grado de azoramiento al plantear cómo ciertas agencias gubernamentales o para gubernamentales están tan interesadas en ocultar la realidad extraterrestre. Porque, desde su percepción de la realidad, el saber a ciencia cierta que no estamos solos en el universo –y que, más aún, posiblemente nos visitan o han visitado- es algo que pasa “allá afuera y lejos” y en nada puede afectar la mundana y cotidiana vida nuestra sobre la Tierra.

¿Qué no?.

Déjenme citar algunas situaciones:

– La certeza de la presencia extraterrestre visitando nuestro planeta desnudaría la ineficiencia e inutilidad de nuestros aparatos militares, de defensa espacial y aérea, en la misión de controlar una hipotética incursión belicosa de otra raza. Estoy seguro que eso no ocurrirá (de haberlo deseado, ya lo habrían hecho): pero vayan a convencer a millones de personas que, descubierta así nuestra indefensión como especie, liberarían los aspectos más brutales, perversos o psicóticos de sus propios miedos.

– Al mismo tiempo, las enormes cantidades de energía necesarias para las visitas cósmicas implican tecnologías que –si llegaran a estar a disposición de la especie humana- implicarían el quiebre inmediato de las multinacionales del petróleo y otras formas de energías no renovables. Las verdaderas “dueñas del mundo”, después de todo.

– Pero tras la caída de tantas empresas poderosas, habría una avalancha de desastres políticos y financieros: multimillonarios jeques que sin poder económico deberían acudir a alimentar los tribalismos más exacerbados para no perder posición, millones de medianas y pequeñas empresas que dependen directa o indirectamente de esas grandes multinacionales (imaginen sólo el caos y el tiempo que llevaría convertir a todos los vehículos –o ser reemplazados- en el mundo para aprovechar estas nuevas energías) y significaría, instantáneamente, decenas de millones de desocupados que ningún sistema de inclusión o seguro social podría corresponder.

– Finalmente, las grandes religiones, basadas en un antropocentrismo que considera al Hombre pináculo de la creación, hijo dilecto de la misma y centro del Universo pondrían en entredicho sus aseveraciones milenarias sobre las cuales, se supone, construyeron sus fortalezas. ¿Cómo explicar, por ejemplo, a un Mesías que se supone nació una única vez como mortal?. ¿Los pueblos de otros planetas no habrían conocido la “salvación”? (con lo cual nos pondríamos en situación similar a la del clero de la Conquista americana dispuestos a llevar la salvación a los aborígenes…. Y ya sabemos lo que significó). ¿O ese Mesías ya habría encarnado en infinitos planetas, y entonces el Dogma no es tal?.

Incidentalmente, quiero señalar que hay otro campo de noticias mundiales que es tratado con el mismo “refuerzo de Skinner inverso” que la “vida en Marte”: el fenómeno OVNI. Efectivamente, periódica, cíclicamente, las agencias de noticias difunden los mismos “comunicados oficiales” donde se anuncia la creación de “comisiones de investigación de ovnis”. Periódica, cíclicamente también, se anuncia que las “conclusiones” de esas investigaciones ponen de manifiesto, o bien que “los ovnis no existen” o que “no entrañan riesgo alguno para nuestros pueblos”. Siempre, todas y cada vez, anunciado como “la primera vez”…

Sea cuales fueren las respuestas correctas, no puedo dejar de detenerme en la fascinación que Marte arroja sobre el espíritu humano. Desde siempre se mira su rojo fulgor en el cielo nocturno con una mezcla de aprensión y melancolía. Antes, mucho antes, siglos antes de “La Guerra de los Mundos”, de Wells, se suponía a Marte habitado por civilizaciones avanzadas. Ni Venus, pese a su papel protagónico en tantas cosmogonías, incitó para las mentes calenturientas mucho más que el eco de un nebuloso Parque Jurásico extraterrestre.

Ya, en el 400 A.C, Petrodoro de Quíos suponía en él la existencia de un pueblo de filósofos. Claro, el filósofo era a esos tiempos lo que el experto en informática a los de hoy: el paradigma de la actualización científica. Y me pregunto si esas especulaciones y esa fascinación no responderá a cierta memoria genética, ancestral, en la que recordamos que ya fuimos visitados de allí. O, quién sabe, si no es nuestra cuna original.

https://institutoplanificador.wordpress.com/2015/09/29/lo-que-oculta-el-anuncio-de-agua-en-marte/

Fuente: http://despiertaalfuturo.blogspot.com.ar/2015/10/lo-que-oculta-el-anuncio-de-agua-en.html

1 octubre, 2015 | Categorías: Misterios del planeta Marte, Reflexiones | Deja un comentario

El Misterio de Isamu Noguchiiscara[1]

 

Isamu Noguchi fue un artista y arquitecto muy polifacético, su surrealista obra es muy peculiar, pero hay una misteriosa obra efectuada en 1947 que realmente es profética, una titulada “Man to be seen From Mars” (El hombre para ser visto desde Marte), la obra es la que podéis ver en la imagen inferior y fue efectuada en arena, por consiguiente, la obra fue destruida, pero de ella nos quedan unas cuantos instantáneas.

Todos recordamos la famosa misión Viking de 1976 enviada a Marte que detecto en la zona de cydonia  una misteriosa cara que levantó ampollas en la comunidad científica y que llevo a la mismísima NASA a Re-Fotografiar (un político español diría cofotografiar) la zona en 2001 con la Mars Global Surveyor, otra sonda moderna y con mejor óptica que nos mostró instantáneas del terreno con más precisión, fotos de las que yo personalmente tengo dudas sobre su veracidad (pero es solo una opinión personal).

Obra de Isamu Noguchi efectuada en 1947 sobre la arena del desierto Fotografía efectuada por la Sonda Marciana Viking en 1976 Fotografia tomada en 2001 por la sonda Mars Global Surveyor (yo personalmente tengo dudas sobre su veracidad)

La pregunta es ¿Cómo demonios Isamu pudo hacer una obra en la arena de las mismas características que la cara marciana y llamarla “El Hombre para ser visto desde Marte”?… ni más ni menos que casi 30 años de ser descubierta por NASA

Isamu Noguchi (1904–88)

Acaso era Isamu un visionario…  o, ¿hay ciertos grupos que poseen información privilegiada?

Curiosamente, el Rockefeller Center de Nueva York, tiene una enorme escultura de este extraño artista…

Que cada uno saque sus propias conclusiones…

Fuente: http://www.mundodesconocido.es/el-misterio-de-isamu-noguchi.html

1 octubre, 2015 | Categorías: Misterios de nuestro Planeta, Misterios del planeta Marte, Profecias | Deja un comentario

El Anuncio de Agua en Marte de NASA, lo hizo hace 9 años

NASA, nuevamente nos sorprende con otro “Re-Descubrimiento”, ya que hace 9 años dijo que había encontrado agua y en las mismas ubicaciones que ahora, todos los grandes medios de comunicación del mundo lo están mostrando de manera sensacionalista, pero de la existencia de agua, hablamos en muchos vídeos dentro de nuestro canal en Mundo Desconocido y hace ya años de ello.

Desconocemos lo que pretenden con este sensacionalismo pero nos parece lamentable que se nos manipule con la reedición (coedición diría un político español, como el “copago”) de viejas noticias.

En el siguiente vídeo, os mostramos las numerosas fotografías de hace muchos años en las que se muestran ese fluir de agua y analizamos el anuncio de NASA sobre el agua en Marte.

Esperamos que os guste.

Anuncio en 2015 de la NASA sobre el agua encontrada:

https://www.nasa.gov/press-release/nasa-confirms-evidence-that-liquid-water-flows-on-today-s-mars

Anuncio en 2006 de la NASA sobre el agua encontrada:

http://mars.jpl.nasa.gov/mgs/newsroom/20061206a.html

Fuente: http://www.mundodesconocido.es/el-anuncio-de-agua-en-marte-de-nasa-lo-hizo-hace-9-anos.html

30 septiembre, 2015 | Categorías: Misterios del planeta Marte | Deja un comentario

¿Una Cuchara en Marte?

Hace unos pocos días, la Rover Curiosity que actualmente opera en Marte, efectuó una serie de fotografías sobre el terreno en las que aparecen una serie de erosiones rocosas muy extrañas, casi imposibles para tratarse de un desgaste natural producido sobre la piedra.

La estructura erosionada tiene el sorprendente aspecto de una cuchara incrustada o incluso una lanza cuya prolongación final parece observarse en una toma.

Esperamos que os guste.

Fuente: http://www.mundodesconocido.es/una-cuchara-en-marte.html

 

thH2SDRNWV

Editar

MERCADEO MODERMO

 

 

 

INTRODUCCIÓN

Definir nuestro negocio es definir cuál es la razón de ser y cuál es la necesidad de los consumidores que nuestro producto satisface. Para ello, entonces necesitamos saber cuáles son las necesidades màs frecuentes que satisfacen los clientes cuando compran un producto.

Es muy frecuente que lo empresarios no tengan claro què es lo que venden. Muchas veces parece irrelevante preguntarse què vendemos. Evidentemente, todos los vendedores conocen los productos que ofrecen a los consumidores. Pero no necesariamente conocen que buscan los consumidores en nuestros productos.

En la mayorìa de los casos, los compradores “consumen” algo (o mucho) màs que el producto en sì. Los productos contienen algunos elementos adicionales (que los empresarios deben aprender a identificar) que los hacen màs atractivos: categorías, cualidades, servicio, entre otros.

Podemos citar algunos ejemplos . Las industrias de bebidas alcohólicas “venden” alegrìa, diversión, además de la bebida misma. Algunos supermercados “venden” marca, exclusividad, estatus o diseño. La industria de comèsticos “vende” belleza, esperanza, y aceptación. Incluso hay algunos productos que “venden” seguridad, confianza y felicidad. Y los consumidores estàn dispuestos a pagar por ello.

Estas cualidades son las necesidades ocultas de los clientes. Si uno es realmente capaz de determinar que es lo que realmente compran o desean comprar sus clientes, estarà en condiciones de ofrecerles lo que demandan, pero muchas veces no es tan evidente determinar que compran inclusive para los mismos consumidores.

Entonces para definir nuestro negocio debemos determinar las necesidades ocultas que los consumidores satisfacen cuando compran nuestros productos. Luego y sòlo entonces debemos preguntar que posibilidades tenemos de cumplir con nuestros clientes.

Determinar que es lo que quieren nuestros clientes y que es lo que les ofrecemos o vendemos no es tan fácil pero el marketing ayuda bastante para averiguarlo.

Una empresa averigua primero que es lo que quiere el cliente para después producirlo. En ese objetivo el marketing se apoya en otras disciplinas como la economía (especialmente la microeconomía); las llamadas ciencias del comportamiento como la psicología, la sociología y la antropología cultural, y en la estadìstica.

Por cierto que el Marketing tambièn aporta lo suyo. Entre los estímulos principales de las ventas el marketing señala cinco de ellos como primordiales; el producto, el precio, el envase, la producción y la distribución. Màs adelante se verà con detalle estos puntos.

La frase clave es conocer el mercado. Las necesidades del mercado , es decir de los consumidores son las que dan la pauta para poder definir mejor que es lo que vamos a vender y a quienes asì como dònde y como lo haremos.

DEFINICIÓN:

El marketing, tambièn llamado mercadeo, es el arte ( y el conocimiento) de aprovechar bien las oportunidades de incrementar las ventas de la empresa.

Es una actitud empresarial que enseña a identificar, descubrir, conocer y dominar los productos y los servicios que satisfacen las necesidades de los clientes

En un estudio histórico del marketing se puede observar primero, los factores que causaron los cambios del marketing; segundo la herencia actual de antiguas prácticas e instituciones del marketing, y tercero, la relativa estabilidad a través del tiempo.

En una economía feudal, agraria o forestal, la población es en gran parte autosuficiente. Produce sus propios alimentos, hace sus propias telas y construye sus propias casas y utensilios. Hay muy poca especialización en el trabajo y muy poca necesidad de cualquier tipo de comercio. En el transcurrir del tiempo, sin embargo, comienza a nacer el concepto de división del trabajo y los artesanos concentran sus esfuerzos en la producción de aquel artículo en el que sobresalen. Esto da como resultado que cada hombre produce de algunos artículos más de lo que necesita, pero careciendo de los demás productos. En cuanto aparece una persona que produce más de lo que desea, o desea más de lo que produce, existe la base para el comercio y el comercio es el corazón del marketing.

Cuando el intercambio comienza a desarrollarse en las economías agrarias, lo hace sobre bases muy sencillas. La mayoría de los negocios lo son en pequeña escala sin especialización alguna en su dirección. Se desarrollan a partir de organizaciones artesanas familiares y se atiende principalmente a la producción, prestando muy poca o ninguna atención al marketing. De hecho la práctica normal es producir manualmente bajo pedido.

En el paso siguiente de la evolución histórica del marketing los pequeños productores comienzan a fabricar sus productos en mayor cantidad anticipándose a los pedidos futuros. Aparece una nueva división en el trabajo cuando un tipo de hombre de negocio comienza a ayudar a la venta de esa mayor producción. Este hombre -que actúa como ligazón entre productores y consumidores- es el intermediario.

Para ser más fácil la comunicación, la compra y la venta, las distintas partes interesadas tienden a agruparse geográficamente; de esta forma se crean los centros comerciales. Existen hoy en día algunas naciones que están atravesando esta etapa de desarrollo económico. Se puede apreciar que los refinamientos y los avances del marketing van en general de los avances de la civilización.

El marketing moderno en los Estados Unidos nació con la Revolución Industrial. Asociado o como sub-producto de la Revolución Industrial vino el crecimiento de los centros urbanos y el descenso de la población rural. La artesanía familiares se transformaron en fábricas y la gente pasó del campo a la ciudad buscando trabajo.

Crecieron las empresas de servicios para satisfacer las necesidades diarias de los obreros industriales que dejaron de ser autosuficientes. El marketing apenas se desarrolló durante la última mitad del siglo XIX y las dos primeras décadas del siglo XX. Todo el interés se centraba en el aumento de la producción debido a que la demanda del mercado excedía a la oferta del producto.

De hecho, el marketing masivo fue un requisito previo para la producción en serie. Solamente con un sistema de marketing masivo pudieron funcionar las fabricas en un nivel óptimo de la producción, con la ventaja de poder disfrutar de las economías de producción derivado de la dimensión a medida en que se desarrolló la economía fabril y se hizo más compleja, los canales por lo que fluyó el comercio se hicieron mayores; tuvieron que encontrarse métodos mejores para vender la producción industrial. El aumento de especialistas en marketing fue el paso obligatorio de este desarrollo evolutivo.

EVOLUCION DEL CONCEPTO DE COMERCIALIZACION:

El concepto de comercializar parte de una simple preocupación por vender, y obtener utilidades.

El concepto de mercadeo ha ido modificándose de una orientación masiva, a lo que se ha dado en llamar mercadeo uno a uno (one-to-one). El mercadeo, como todo proceso, es dinámico y cambia, se modifica constantemente. Este proceso, pese a lo que se crea, no ha ocurrido al mismo tiempo en todos los países, o regiones del mundo.

Es en los Estados Unidos de América donde el proceso ha pasado por todas las fases que indicamos a continuación. Cada persona que lea este texto deberá identificar en qué estado de desarrollo del concepto de mercadeo y aplicación del mismo, se encuentran sus compañeros, superiores, empresa, barrio, ciudad, región, provincia o país. ¿Están en 1800, 1920 o en 1950?

Orientación a la Producción

Desde 1800 hasta los año 1920, las empresas en Europa y EE.UU. mostraban una clara orientación a la producción. Dado que todo lo que se produjera era consumido de inmediato, la manufactura determinaba las características de los productos. No era necesario comercializar para vender. Todo se consumía de inmediato, fuera lo que fuera lo que se producía. El consumidor no tenía tiempo de seleccionar ni forma, ni color, tomaba cualquier cosa. La demanda superaba la oferta.

Orientación a la Venta

A partir de la crisis del año 1920, donde la capacidad de compra se redujo al mínimo, se crearon y desarrollaron productos, que luego trataban de introducirse en el Mercado. Muchos de esos productos no tuvieron éxito, otros tuvieron éxito momentáneo. Se comienza a dar gran importancia a las ventas, como generador de ingresos. Se desarrollan técnicas destinadas a vender. (De aquí se origina la confusión corriente de los conceptos venta y mercadeo).

Orientación al MercadLos procesos de comercialización fueron analizados por las Universidades Americanas, Harvard en especial, y poco a poco se ha ido desarrollando toda una serie de teorías, para asegurar el éxito de cualquier actividad commercial.El concepto que dio origen al Mercadeo o Marketing (1950, Harvard, Teodore Levitt), fué el de orientar los productos al Grupo de Compradores (Mercado Meta) que los iba a consumir o usar. Junto con ello se dirige los esfuerzos de promoción a las masas (mas marketing), por medio de los medios masivos que comienzan a aparecer (cine, radio, televisión).

Mercadeo Uno a uno.

A partir de 1990, se refina el concepto de mercadeo orientado al cliente, y se comienza a crear productos y servicios orientados a personas en particular, con la utilización de complejos sistemas informáticos capaces de identificar clientes específicos y sus necesidades concretas. Los segmentos se van reduciendo hasta llegar a grupos meta altamente determinados, casi personas concretas, con nombre y apellido. Estos es dando a cada cual lo suyo. Este nuevo paso lo impulsa y permite la creación de nuevas, su reducción de precio y la Globalización de la economía.

(más…)

Editar

Evolución de las Computadoras

El desarrollo de las computadoras suele divisarse por generaciones y el criterio que se ha establecido para determinar el cambio de generación no está muy bien definido, pero aparentemente deben cumplirse al menos los siguientes requisitos:

  • la forma en que están construidas(hardware)
  • la forma en que el ser humano se comunica con ellas(hardware/software)

A continuación se presentan las características principales de éstas generaciones.

Primera Generación

Podemos decir que las computadoras de hoy, son inventos recientes que han evolucionado rápidamente. Esta evolución comenzó para el año 1947, cuando se fabricó en la Universidad de Pennsylvania, la ENIAC (Electronic Numerical Integrator And Calculator), la primera computadora electrónica, cuyo equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos al vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de acondicionador de aire, pero su característica principal, que era mil veces más rápida que cualquier calculadora de la época.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático John von Neumann. Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que hoy es considerado el padre de las computadoras. La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

En esta generación había un gran desconocimiento de las capacidades de los sistemas, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarcó la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

  • eran construidas por medio de tubos al vacío
  • programadas en lenguaje de máquina.

En esta época las máquinas eran grandes y costosas (de cientos de miles de dólares). En 1951 aparece la UNIVAC (UNIVersAl Computer), que fue el primer diseño comercial, disponía de mil palabras de memoria central, podía leer cintas magnéticas y se utilizó para procesar el censo de 1950 en los Estados Unidos. Este fue otro exitoso proyecto de Eckert y Mauchly.

Segunda Generación

Cerca de la década de 1960, donde se define la segunda generación, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse entre ellas, recibiendo el nombre de programación de sistemas.

Las características de la segunda generación son las siguientes:

  • están construidas con circuitos de transistores
  • se programan en nuevos lenguajes llamados lenguajes de alto nivel (COBOL y FORTRAN)

En esta generación aparecen diversas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de éstas se programaban con cintas perforadas y otras por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith, quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machine).

Tercera generación

Con los progresos de la electrónica y los avances de comunicación en la década de los 1960, surge la tercera generación de las computadoras.   Las características de esta generación fueron las siguientes:

  • su fabricación electrónica está basada en circuitos integrados
  • su manejo por medio de los lenguajes de control de los sistemas operativos.

A finales de la década de 1960, aparecen en el mercado las computadoras de tamaño mediano, o mini computadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas mini computadoras fueron las siguientes: la PDP – 8 y la PDP – 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard con varios modelos. La IBM produjo la serie 360 y 370.

Cuarta generación

Es entonces en la cuarta generación y a mediados de 1970, en donde aparecen los microprocesadores.   Estos son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extendió al mercado en general. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la dinámica social, llamada hoy “revolución de la informática”.

El Dr. Ted Hoff fue uno del los que comenzó ésta revolución con el primer microprocesador de la compañía Intel (Intel 4004). En 1970 el Intel 4004, marcó el inicio de una serie de procesadores, seguido entre otros, por el Intel 8088, utilizado en la primera computadora personal (PC), manufacturada por IBM. Esta evolución continúa hasta los más recientes: el Intel Pentium 4 y el Itanium.

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda más grande del mundo, antecedida tan sólo por IBM; y ésta por su parte es aún una de las cinco compañías más grandes del mundo.

En 1981 se vendieron aproximadamente 80,000 computadoras personales, al siguiente subió a 1,400,000. Entre 1984 y 1987 alrededor de 60 millones de computadoras personales, por lo que no queda duda de su impacto y penetración en el mercado.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas se manejan, han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario.

No todo son microcomputadoras, las mini computadoras y los grandes sistemas continúan en desarrollo. De hecho, las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes han desaparecido; por el contrario, su presencia es ineludible en esferas de control gubernamental, militar, industrial y educación.

Las llamadas supercomputadoras, como por ejemplo el modelo ASCI White de IBM, un proyecto para el Departamento de Energía Federal, puede ejecutar 12.28 teraflops (trillones de instrucciones por segundo) y simultáneamente procesar transacciones en el Web por cada hombre, mujer y niño que existe en el planeta, en tan solo un minuto. Esta máquina provee una capacidad de disco de sobre 160 trillones de bytes. Esto es 16,000 veces más capacidad que una PC promedio. Este sistema es mil veces más poderoso que la famosa “Deep Blue” de IBM, la supercomputadora que compitió contra el campeón mundial de ajedrez Garry Kasparov en 1987.

La historia presentada aquí, sólo resalta algunos aspectos y no incluye todos los avances en detalle que han acontecido durante la evolución de la computadora.

Podemos concluir que la historia de ésta asombrosa evolución no termina aquí y se espera que continúe con la llamada Quinta Generación, que estaría basada entre otras cosas, en inteligencia artificial, en donde las computadoras exhibirían características similares a la inteligencia humana.

imagenYoutube

Ciencias de la computación


Las ciencias de la computacion son aquellas que abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales.[1] [2] [3] El cuerpo de conocimiento de las ciencias de la computación es frecuentemente descrito como el estudio sistemático de los procesos algorítmicos que describen y transforman información: su teoría, análisis, diseño, eficiencia, implementación y aplicación.[4]

Es el estudio sistemático de la factibilidad, estructura, expresión y mecanización de procedimientos metódicos (o algoritmos) que subyacen en la adquisición, representación, procesamiento, almacenamiento, comunicación y acceso a la información si dicha información está codificada en forma de bits en una memoria de computadora o especificada en una estructura de genes y proteínas en una célula biológica.[5]

Existen diversos campos o disciplinas dentro de las ciencias de la computación o ciencias computacionales; algunos resaltan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputo y otros se enfocan en los problemas que requieren la implementación de sistemas computacionales. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional específico. Un científico de la computación o computólogo se especializa en teoría de la computación y en el diseño e implementación de sistemas de computacionales.[6]

Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación es: «¿Qué puede ser (eficientemente) automatizado?».[7]

Historia[editar]

Charles Babbage es reconocido por inventar la primera computadora mecánica.

Ada Lovelace es reconocida por escribir el primer algoritmo procesado por una computadora.

La historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos.[8] Los primeros cimientos de lo que se convertiría en ciencias de la computación son anteriores a la invención de la computadora digital moderna. Se trataba de máquinas para el cálculo de las tareas numéricas fijas, como el ábaco han existido desde la antigüedad, ayudando en cálculos tales como la multiplicación y la división. Además, los algoritmos para realizar cálculos han existido desde la antigüedad, incluso antes de que se crearan equipos de computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras, o “Reglas de la cuerda”, es un libro de algoritmos escritos en 800 a. C. para la construcción de objetos geométricos como altares utilizando una clavija y cuerda, un precursor temprano del campo moderno de la geometría computacional.

Blaise Pascal diseñó y construyo la primera calculadora mecánica de trabajo, la Pascalina, en 1642.[9] En 1673 Gottfried Leibniz creó una calculadora mecánica digital, llamada el ‘Stepped Reckoner‘.[10] Él puede ser considerado el primer computólogo y teórico de la información, entre otras razones, porque fue el primero en documentar el sistema numérico binario. En 1820, Charles Xavier Thomas de Colmar lanzó la calculadora mecánica industrial[11] cuando lanzó su simplificado aritmómetro, que fue la primera máquina de calcular lo suficientemente fuerte y lo suficientemente confiable para ser usada a diario en un entorno industrial. Charles Babbage inició el diseño de la primera calculadora automática mecánica, su máquina diferencial, en 1822, que finalmente le dio la idea de la primera calculadora mecánica programable, su máquina analítica.[12] Él comenzó a desarrollar esta máquina en 1834 y “en menos de dos años que había esbozado muchas de las características más destacadas del moderno equipo. Un paso fundamental fue la adopción de un sistema de tarjetas perforadas derivado del telar de Jacquard[13] haciéndolo infinitamente programable.[14] En 1843, durante la traducción de un artículo francés sobre la máquina analítica, Ada Lovelace escribió, en una de las muchas notas que incluye el artículo, un algoritmo para calcular los números de Bernoulli, que es considerado como el primer programa de ordenador.[15] Al rededor de 1885, Herman Hollerith inventó la máquina tabuladora, que usaba tarjetas perforadas para procesar información estadística; finalmente, su compañía se convirtió en parte de IBM. En 1937, cien años después del sueño imposible de Babbage, Howard Aiken convencidos por IBM, que estaban manufacturando todo tipo de equipos de tarjetas perforadas y así como la calculadora de negocio [16] para desarrollar su calculadora programable gigante, el ASCC/Harvard Mark I, se basó en la máquina analítica de Babbage, que a su vez utiliza las tarjetas perforadas y una unidad central de cálculo. Cuando se terminó de construir la máquina, algunas personas lo aclamaron como “el sueño de Babbage hecho realidad”.[17]

Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas para computar, el término computador se comenzó a utilizar para referirse a las máquinas y ya no a sus antecesores humanos.[18] Cuando se hizo evidente que las computadoras no solamente podrían utilizarse para realizar cálculos matemáticos, el campo de las ciencias de la computación se amplió para estudiar cómputo en general. Las ciencias de la computación empezaron a establecerse como una disciplina académica distinta de las demás en la década de 1950 y principios de 1960.[7] [19] Entonces surgió el primer programa de grado universitario mundo, el Cambridge Diploma in Computer Science, se inició en la Universidad de Cambridge en el Cambridge Computer Lab (departamento de ciencias de la computación) en 1953. El primer programa de grado universitario en ciencias de la computación en los Estados Unidos se formó en Universidad de Purdue en 1962.[20] Desde que se dispone ordenadores prácticos, muchas aplicaciones la computación se han convertido en las distintas áreas de estudio en sus propios términos.

Aunque inicialmente muchos creyeron que era imposible que las computadoras en sí mismas podrían constituir en realidad un campo científico de estudio, a finales de los años cincuenta se fue volviendo gradualmente aceptada entre la población mayor académica.[21] [22] Es la marca IBM que a 2015 es muy conocida la que formó parte de la revolución de las ciencias de la computación durante este tiempo. IBM (abreviación de International Business Machines) lanzó el IBM 704[23] y más tarde las computadoras de IBM 709[24] que fueron ampliamente utilizadas durante el período de exploración de este tipo de dispositivos. “Sin embargo, el trabajo con las IBM [computadoras] fue frustrante … si hubieras perdido tanto como una letra en una instrucción, el programa chocaría, y usted tendría que empezar todo el proceso otra vez”.[21] Durante a finales de 1950, la disciplinas de las ciencias de la computación estaban en sus etapas de desarrollo más primordiales, y tales cuestiones eran comunes.[22]

La disciplina científica de las ciencias de la computación nace a principios de 1940 con la confluencia de la teoría de algoritmos, lógica matemática y la invención del programa almacenado en una computadora electrónica.[4] Ejemplos de esto son los trabajos de Alan Turing, Alonzo Church y Kurt Gödel en 1930 acerca de los algoritmos y su trabajo en sistemas de reglas (véase Cálculo Lambda, Máquina de Turing y Problemas Indecidibles), los algoritmos creados por Augusta Ada sesenta años antes, la computadora analógica construida por Vannevar Bush en 1920 y las computadoras eléctricas construidas por Howard Aiken y Konrad Zuse en 1930. Los escritos de John Von Neumann dieron una profundidad intelectual considerable a esta disciplina emergente a mediados de la década de 1940.

En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de departamentos académicos y programas de grado universitario para esta disciplina.[4] IBM es reconocida como la marca que formó parte de la revolución de las ciencias de la computación durante ese tiempo. IBM (abreviación de International Business Machines) lanzó la IBM 704[25] y más tarde la IBM 709[26] computadoras, que fueron ampliamente utilizadas durante el período de exploración de este tipo de dispositivos. “Sin embargo, el trabajo con la IBM [equipo] era frustrante … si te equivocas en una letra de alguna instrucción, el programa se arruinaría, y se tendría que empezar todo el proceso otra vez”.[21] Durante la década de 1950, la disciplina de las ciencias de la computación estaba en su etapa de desarrollo, y estos problemas eran algo común.

El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la tecnología de la computación. La sociedad moderna ha presenciado un cambio significativo en los usuarios de la tecnología en cómputo, de ser utilizada únicamente por expertos, profesionales y científicos, a una base de usuarios que es casi omnipresente a la teoría con la cual se desarrolló y funciona este tipo de tecnología. Inicialmente, las computadoras eran bastante costosas, y era necesario un cierto grado de ayuda humana para el uso eficiente – en parte de operadores de computadoras profesionales. Como la adopción equipo se hizo más generalizado y asequible, se necesitaba menos asistencia humana en el uso común.

Mayores logros[editar]

El ejército alemán uso la máquina enigma durante la Segunda Guerra Mundial; su sistema de cifrado fue finalmente descubierto por Alan Turing, considerado el padre de la Computación. La lectura de la información que contenían los mensajes supuestamente encriptados son considerados, a veces, como la causa de haber podido concluir la Segunda Guerra Mundial al menos dos años antes de lo que hubiera acaecido sin su descifrado. El descifrado a gran escala del tráfico de Enigma en Bletchley Park fue uno de los factores más importantes que contribuyeron a la victoria Aliada.[27]

A pesar de su corto tiempo de ser una disciplina científica formal, las ciencias de la computación han hecho un gran número de contribuciones importantes a la ciencia y la sociedad –de hecho, junto con la electrónica, es una ciencia fundacional de la época actual de la historia humana llamada Era de la información y la Revolución de la Información, visto como el tercer gran salto en el progreso tecnológico humano después de la Revolución Industrial (1750-1850) y la revolución neolítica (8000-5000 a. C.)–.

Estas contribuciones a la humanidad incluyen:

Filosofía[editar]

Un gran número de científicos de la computación han argumentado a favor de la distinción de tres paradigmas diferentes en ciencias de la computación. Peter Wegner ha argumentado que esos paradigmas son la ciencia, la tecnología y las matemáticas.[33] El grupo de investigación de Peter Denning argumentó que son la abstracción (modelado), y diseño. Amnon H. Eden lo describe como el “paradigma racionalista” (el cual trata a las ciencias de la computación como una rama de las matemáticas, la cual prevalence en ciencias de la computación teórica y principalmente emplea el razonamiento deductivo), el paradigma tecnocrático (que podría ser encontrado en enfoques ingenieriles, más prominente en la ingeniería de software) y el paradigma científico (que se enfoca a objetos relacionados con la computación desde la perspectiva empírica de las ciencias naturales identificable en algunas ramas de la inteligencia artificial.

Nombre del campo[editar]

A pesar de su primera proposición en 1956,[22] el término “ciencias de la computación” aparece en 1959 en un artículo de la revista Communications of the ACM (prestigiada publicación científica destinada a lectores con experiencia en todos los ámbitos de la computación y los sistemas de información),[34] en el cual Louis Fein discute sobre la creación de una Escuela de Estudios de Posgrado en Ciencias Computacionales análoga a la creación de Harvard Business School en 1921,[35] justificando el nombre con el argumento de que: Como la ciencia administrativa, el tema o área de conocimiento puede ser aplicado, es de carácter interdisciplinario y que cuenta con las características típicas de una disciplina académica.[36] Sus esfuerzos y los de otros, como el analista numérico George Forsythe, fueron recompensados: universidades pasaron a crear este tipo de programas de estudio, a partir de 1962 en Purdue.[37] A pesar del nombre de esta disciplina académica, una cantidad significativa de tópicos en ciencias de la computación no involucran el estudio de las computadoras, por esta razón muchos nombres alternativos han sido propuestos.[38]

Algunos departamentos de universidades prefieren el término “ciencias de la computación” para hacer énfasis en esta diferencia. El científico danés Peter Naur sugirió el término datología,[39] para reflejar el hecho de que esta disciplina científica gira en torno a los datos y a al tratamiento de estos, mientras que no necesariamente involucra a las computadoras. La primer institución científica en usar el término fue el Departamento de Datología de la Universidad de Copenhague, fundado en 1969, con Peter Naur como profesor de datología. El término es usado en países escandinavos. En los primeros años de la computación, un número de terminus para los practicantes del campo de la computación fueron propuestos en la revista Communications of the ACMturingeniero, turologo, hombre de los diagramas de flujo, matemático meta-aplicado, and epistemologo aplicado.[40] Tres meses después en esa misma publicación científica, el término computólogo fue sugerido. El siguiente año en la misma publicación surgió el término hypologo.[41] El término computica también ha sido sugerido.[42] En Europa, términos derivados de traducciones de la expresión “automatic information” (e.g. “informazione automatica” en Italiano) or “información y matemáticas” son frecuentemente usados, e.g. informatique (francés), Informatik (alemán), Informática (Italia, Países Bajos), Informática (España y Portugal), informatika (lenguas eslavas) o pliroforiki (πληροφορική, que significa informática) en Griego. Palabras similares han sido adoptadas en algunos lugares del Reino Unido, por ejemplo en la Universidad de Edimburgo.[43] Pero estas no reflejan el aspecto de la computabilidad, por esta razón en un contexto de investigación científica tanto académica como industrial el término ciencias de la computación es mayormente usado en publicaciones y conferencias científicas.

Campos de las ciencias de la computación[editar]

Como disciplina científica, las ciencias de la computación abarcan una gama de temas, desde los estudios teóricos de los algoritmos y los límites de la computación a los problemas prácticos de la implementación de sistemas computacionales en hardware y software.[44] [45] Computing Sciences Acreditation Board o la Junta de Acreditación en Ciencias de la Computación. –Compuesta por representantes de la Association for Computing Machinery (ACM), y la Sociedad de Computación IEEE (IEEE-CS) [46] – identifica cuatro áreas que considera cruciales para la disciplina de ciencias de la computación: teoría de la computación, algoritmos y estructuras de datos, metodología y lenguajes de programación, arquitectura de computadoras. Además de estas cuatro áreas, C.S.A.B. también identifica ámbitos como la ingeniería de software, inteligencia artificial, redes de computadoras y de telecomunicaciones, sistemas de bases de datos, computación paralela, computación distribuida, la interacción persona-computador, gráficos por ordenador, sistemas operativos, cálculo numérico y simbólico siendo importantes áreas de las ciencias de la computación.[44]

Ciencias de la computación teóricas[editar]

El campo más amplio de la ciencia de la computación teórica abarca tanto la teoría clásica de la computación y una amplia gama de otros temas que se centran en los aspectos más abstractos, lógicos y matemáticos de la computación.

Teoría de la computación[editar]

De acuerdo a Peter J. Denning, la pregunta fundamental en ciencias de la computación es, «¿Que puede ser eficientemente automatizado?»[7] El estudio de la teoría de la computación está enfocado en responder preguntas fundamentales acerca de que puede ser computado y que cantidad de recursos son requeridos para ejecutar tales cómputos. En un esfuerzo por resolver esta pregunta, la teoría de la computabilidad examina que problemas computacionales se pueden resolver en varios modelos teóricos de cómputo. La segunda pregunta está dirigida por la teoría de la complejidad computacional, que estudia los costos de tiempo y espacio asociados a diferentes enfoques para resolver una multitud de problemas computacionales.

El famoso problema “¿P=NP?” es uno de los Problemas del milenio,[47] es un problema abierto en ciencias de la computación.

DFAexample.svg Wang tiles.png P = NP ? GNITIRW-TERCES Blochsphere.svg
Teoria de automatas Teoria de la computabilidad Teoria de la complejidad computacional Criptografía Computación cuántica

Teoría de la información y códigos[editar]

La teoría de la información está relacionada a la cuantificación de la información. Fue desarrollada por Claude E. Shannon para desarrollar los límites fundamentales del procesamiento de señales así como sus operaciones, tales como compresión y almacenamiento de datos así como la comunicación de los datos de manera fiable.[48] La teoría de códigos es el estudio de las propiedades de los códigos (sistemas para conversión de información de un lugar a otro) y su ajuste para una aplicación específica. Los códigos son usados para comprimir datos, criptografía, detección y corrección de errores y más recientemente para la codificación de redes. Los códigos son estudiados para el propósito de diseñar métodos eficientes y seguros para la transmisión de datos.

Algoritmos y estructuras de datos[editar]

Los algoritmos y las estructuras de datos son el estudio de métodos computacionales comúnmente usados así como su eficiencia computacional.

O(n^{2}) Sorting quicksort anim.gif Singly-linked-list.svg TSP Deutschland 3.png SimplexRangeSearching.png
Análisis de algoritmos Algoritmos Estructuras de datos Optimización combinatoria Geometría computacional

Teoría de lenguajes de programación[editar]

La teoría del lenguaje de programación es una rama de las ciencias de la computación que se ocupa del diseño, implementación, análisis, caracterización y clasificación de los lenguaje de programación y sus características individuales, cae dentro de la disciplina de las ciencias de la computación, tanto en dependencia de las matemáticas y la lingüística. Es un área de investigación activa, con numerosas revistas académicas y conferencias especializadas en el tema.

\Gamma \vdash x:{\text{Int}} Compiler.svg Python add5 syntax.svg
Teoría de tipos Compiladores Lenguajes de programación

Métodos formales[editar]

Los métodos formales son un tipo particular de la técnica basada en las matemáticas para la especificación formal, desarrollo y verificación formal de los sistemas de software y hardware. El uso de métodos formales para el diseño de software y hardware está motivado por la expectativa de que, la realización de un análisis matemático adecuado puede contribuir a la fiabilidad y robustez de un diseño. Estos forman una importante base teórica para la ingeniería de software, especialmente cuando está involucrado la seguridad o robustez. Los métodos formales son un complemento útil para las pruebas de software, ya que ayudan a evitar errores y también pueden dar un marco para hacer pruebas. Para su uso industrial, se requiere el apoyo de herramientas. Sin embargo, el alto costo de la utilización de métodos formales significa que por lo general sólo se utilizan en el desarrollo de sistemas críticos de alta integridad donde la vida o la seguridad es de muy alta importancia. Los métodos formales se describen mejor como la aplicación de un bastante amplia variedad de teóricos fundamentales de la informática, en particular, los cálculos lógica, los lenguajes formales, la teoría de autómatas, y la semántica de los programas, sino también de tipo de sistemas y tipos de datos algebraicos a los problemas en el software y hardware de especificación y verificación.

Los métodos formales se describen mejor como la aplicación de una amplia variedad de fundamentos teóricos de las ciencias de la computación, en particular la lógica computaciónal, lenguajes formales, teoría de autómatas y Semántica de lenguajes de programación pero también áreas como sistemas de tipos y tipos de datos algebraicos a problemas en la especificación y verificación de software y hardware.

Ciencias de la computación aplicadas[editar]

Las ciencias de la computación aplicadas tratan de identificar ciertos aspectos conceptuales y teóricos de las ciencias de la computación que pueden ser aplicados directamente para resolver problemas del mundo real.

Inteligencia artificial[editar]

Esta rama de las ciencias de la computación pretende o es requerida para la síntesis de procesos meta-orientados tales como la resolución de problemas, toma de decisiones, la adaptación del medio ambiente, el aprendizaje y la comunicación que se encuentran en los seres humanos y los animales. Desde sus orígenes en la cibernética y en la Conferencia de Dartmouth (1956), la investigación en inteligencia artificial (IA) ha sido necesariamente multidisciplinaria, aprovechando áreas de especialización, tales como las matemáticas, la lógica simbólica, la semiótica, la ingeniería eléctrica, la filosofía de la mente, la neurofisiología, y la inteligencia social. La IA erróneamente es asociada en la mente popular con el desarrollo robótico, pero el principal campo de aplicación práctica ha sido como un componente integrado en las áreas de desarrollo de software que requieren la comprensión y modelación computacional, tales como las finanzas y la economía, la minería de datos y las ciencias físicas. El término fue acuñado por el científico de la computación y matemático John McCarthy en 1955.

Nicolas P. Rougier's rendering of the human brain.png NASA Mars Rover.jpg Corner.png KnnClassification.svg
Aprendizaje automático Visión artificial Procesamiento de imágenes Reconocimiento de patrones
User-FastFission-brain.gif Julia iteration data.png Sky.png Earth.png
Ciencia cognitiva Minería de datos Computación evolutiva Búsqueda y recuperación de información
Neuron.svg English.png HONDA ASIMO.jpg MeningiomaMRISegmentation.png
Representación del conocimiento Procesamiento de lenguaje natural Robótica Cómputo de imágenes médicas

Arquitectura de computadoras[editar]

La arquitectura de computadores u organización de computadoras digitales es el diseño conceptual y la estructura operacional fundamental de un sistema cómputo. Se centra en gran medida de la manera en que la unidad central de procesamiento realiza internamente y accede a las direcciones en la memoria.[49] El campo involucra disciplinas de la ingeniería en computación y la ingeniería eléctrica, la selección y la interconexión de los componentes de hardware para crear los equipos que cumplen funciones, de rendimiento, y costes.

NOR ANSI.svg Fivestagespipeline.png SIMD.svg
Lógica digital Microarquitecturas Multiprocesamiento
Operating system placement.svg Network Library LAN.svg Emp Tables (Database).PNG Padlock.svg
Sistemas operativos Redes de computadoras Sistemas de gestión de bases de datos Seguridad de la información
Roomba original.jpg Flowchart.png Ideal compiler.png Python add5 syntax.svg
Computación ubicua Arquitectura de software Diseño de compiladores Lenguajes de programación

Análisis de rendimiento de computadoras[editar]

Análisis de rendimiento del equipo es el estudio del trabajo que fluye a través de los equipos con el objetivo general de mejora de rendimiento y control de tiempo de respuesta, utilizando los recursos de manera eficiente, la eliminación de los cuellos de botella, y la predicción de rendimiento bajo cargas máximas previstas.[50]

Cómputo científico[editar]

La ciencia computacional (o computación científica) es el campo de estudio que trata con la construcción de modelos matemáticos y técnicas de análisis cuantitativos así como el uso de computadoras para analizar y resolver problemas científicos. En el uso práctico, es típicamente la aplicación de simulación por ordenador y otras formas de cálculo a los problemas en diversas disciplinas científicas.

Lorenz attractor yb.svg Quark wiki.jpg Naphthalene-3D-balls.png 1u04-argonaute.png
Análisis numérico Física computacional Química computacional Bioinformática

Redes de computadoras[editar]

Esta rama de las ciencias de la computación que tiene como objetivo gestionar las redes entre computadoras en todo el mundo.

Sistemas concurrentes, paralelos y distribuidos[editar]

Concurrencia es una propiedad de los sistemas en los que varios cálculos están ejecutando de forma simultánea, y, potencialmente, que interactúan entre sí. Un número de modelos matemáticos han sido desarrollados para el cálculo concurrente general, incluyendo las redes de Petri, cálculos de proceso y del modelo de máquina de acceso aleatorio en paralelo. Un sistema distribuido se extiende la idea de la simultaneidad en varios ordenadores conectados a través de una red. Computadoras dentro del mismo sistema distribuido tienen su propia memoria privada, y la información es a menudo intercambian entre sí para lograr un objetivo común.

Bases de datos[editar]

Una base de datos tiene la intención de organizar, almacenar y recuperar grandes cantidades de datos de forma sencilla. Bases de datos digitales se gestionan mediante sistemas de gestión de base de datos para almacenar, crear, mantener y consultar los datos, a través de modelos de bases de datos y lenguajes de consulta. Una base de datos es un conjunto de datos interrelacionados entre si mismos.

Informática en salud[editar]

Informática de la Salud se ocupa de las técnicas computacionales para la solución de problemas en el cuidado de la salud.

Ciencia de la información[editar]

El campo estudia la estructura, algoritmos, comportamiento e interacciones de los sistemas naturales y artificiales que guardan, procesan, acceden a y comunican información. También desarrolla sus propios fundamentos conceptuales y teóricos y emplea fundamentos desarrollados en otros campos.

Earth.png Neuron.png English.png Wacom graphics tablet and pen.png
Búsqueda y recuperación de información Representación del conocimiento Procesamiento de lenguaje natural Interacción persona-computador

Ingeniería de software[editar]

Ingeniería de software es el estudio del diseño, implementación y modificación de software con la finalidad de asegurarse de que es de alta calidad, asequible, fácil de mantener, y rápido de construir. Es un enfoque sistemático para el diseño de software, que implica la aplicación de prácticas de ingeniería de software. Los ingenieros de software comercian con la organización y análisis de software— no solo lidian con la creación o fabricación de un nuevo software, sino también con su mantenimiento y disposición interna. Se prevé que estén entre las ocupaciones de más rápido crecimiento entre 2008 y 2018. Debido a la novedad de este subcampo, la educación formal en Ingeniería de software generalmente es parte de los planes de estudio de ciencias de la computación, la gran mayoría de ingenieros de software tienen un grado académico en ciencias de la computación sin tener relación con la ingeniería.[51]

Relación con otros campos[editar]

Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computación. Esta puede ser vista como una forma de ciencia, matemáticas o una nueva disciplina que no puede ser categorizada siguiendo los modelos actuales.

Las ciencias de la computación frecuentemente se cruzan con otras áreas de investigación, tales como la física y la lingüística. Pero es con las matemáticas con las que se considera que tiene un grado mayor de relación. Eso es evidenciado por el hecho de que los primeros trabajos en el área fueran fuertemente influenciados por matemáticos como Kurt Gödel y Alan Turing. En la actualidad sigue habiendo un intercambio de ideas útil entre ambos campos en áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, el álgebra y la geometría.

Otro punto a destacar es que, a pesar de su nombre, las ciencias de la computación raramente involucran el estudio mismo de las máquinas conocidas como computadoras. De hecho, el renombrado científico Edsger Dijkstra es muy citado por la frase «Las ciencias de la computación están tan poco relacionadas con las computadoras como la astronomía con los telescopios». La investigación en ciencias de la computación también suele relacionarse con otras disciplinas, como la ciencia cognitiva, la física (véase computación cuántica), la lingüística, etcétera.

La relación entre las ciencias de la computación y la ingeniería de software es un tema muy discutido, por disputas sobre lo que realmente significa el término ingeniería de software y sobre cómo se define a las ciencias de la computación. Algunas personas creen que la ingeniería de software sería un subconjunto de las ciencias de la computación. Otras, tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen que el principal objetivo de las ciencias de la computación sería estudiar las propiedades del cómputo en general, mientras que el objetivo de la ingeniería de software sería diseñar cómputos específicos para lograr objetivos prácticos, con lo que se convertiría en disciplinas diferentes. Este punto de vista es el que sostiene, por ejemplo, Parnas (1998). Incluso hay otros que sostienen que no podría existir una ingeniería de software.

Los aspectos académicos, políticos y de financiamiento en las áreas de ciencias de la computación tienden a verse influidos drásticamente por el criterio del departamento encargado de la investigación y la educación en cada universidad, que puede estar orientado a la matemática o a la ingeniería. Los departamentos de ciencias de la computación orientados a la matemáticas teóricas suelen alinearse del lado de la computación científica y las aplicaciones de cálculo numérico.

El término computación científica, que no debe confundirse con ciencia de la computación, designa a todas aquellas prácticas destinadas a modelar, plantear experimentos y validar teorías científicas sirviéndose de medios computacionales. En estos casos la computación es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (física, biología, mecánica de fluidos, radiotransmisión,…), más que en la propia ciencia de la computación.

Finalmente, el público en general algunas veces confunde la ciencia de la computación con áreas vocacionales que trabajan con computadoras o piensan que trata acerca de su propia experiencia con las computadoras, lo cual suele incluir actividades como los juegos, la navegación web y el procesamiento de texto. Sin embargo, el punto central de la ciencia de la computación va más allá de entender las propiedades de los programas que se emplean para implementar aplicaciones de software como juegos y navegadores web, y utiliza ese entendimiento para crear nuevos programas o mejorar los existentes.[52]

Véase también[editar]

Referencias[editar]

  1. Volver arriba Computer science is the study of informationDepartment of Computer and Information Science, Guttenberg Information Technologies
  2. Volver arriba Computer science is the study of computation.Computer Science Department, College of Saint Benedict, Saint John’s University
  3. Volver arriba Computer Science is the study of all aspects of computer systems, from the theoretical foundations to the very practical aspects of managing large software projects.Massey University
  4. Saltar a: a b c Anthony Ralston, Edwin D. Reilly, David Hemmendinger (2000). Encyclopedia of Computer Science. Wiley. 978-0-470-86412-8. 
  5. Volver arriba http://www.cs.bu.edu/AboutCS/WhatIsCS.pdf.
  6. Volver arriba «WordNet Search – 3.1». Wordnetweb.princeton.edu. Consultado el 14 de mayo de 2012. 
  7. Saltar a: a b c Denning, P.J. (2000). «Computer Science: The Discipline» (PDF). Encyclopedia of Computer Science. 
  8. Volver arriba David Alan Grier (2005). When computers were human. Princeton University Press. ISBN 84-89660-00-X. 
  9. Volver arriba «Blaise Pascal». School of Mathematics and Statistics University of St Andrews, Scotland. 
  10. Volver arriba «A Brief History of Computing». 
  11. Volver arriba En 1851
  12. Volver arriba «Science Museum – Introduction to Babbage». Archivado desde el original el 8 de septiembre de 2006. Consultado el 24 de septiembre de 2006. 
  13. Volver arriba Anthony Hyman (1982). Charles Babbage, pioneer of the computer. 
  14. Volver arriba “La introducción de tarjetas perforadas en el nuevo motor era importante no sólo como una forma más conveniente de control que los tambores, si no porque se podría programar de forma ilimitada, y estos programas podrían ser almacenados y repetidos sin el peligro de introducir errores en la configuracion a mano de la máquina; era importante también porque sirvió para cristalizar sensación de Babbage que había inventado algo realmente nuevo, algo mucho más que una máquina calculadora sofisticada.” Bruce Collier, 1970
  15. Volver arriba «A Selection and Adaptation From Ada’s Notes found in Ada, The Enchantress of Numbers,” by Betty Alexandra Toole Ed.D. Strawberry Press, Mill Valley, CA». Consultado el 4 de mayo de 2006.  (enlace roto disponible en Internet Archive; véase el historial y la última versión).
  16. Volver arriba “En este sentido Aiken necesitaba de IBM, cuya tecnología incluida el uso de tarjetas perforadas, la acumulación de datos numéricos, y la transferencia de los datos numéricos de un registro a otro “, Bernard Cohen, p.44 (2000)
  17. Volver arriba Brian Randell, p. 187, 1975
  18. Volver arriba La Association for Computing Machinery (ACM) fue fundada en 1947.
  19. Volver arriba «Some EDSAC statistics». Cl.cam.ac.uk. Consultado el 19 de noviembre de 2011. 
  20. Volver arriba «Computer science pioneer Samuel D. Conte dies at 85». Purdue Computer Science. 1 de julio de 2002. Consultado el 12 de diciembre de 2014. 
  21. Saltar a: a b c Levy, Steven (1984). Hackers: Heroes of the Computer Revolution. Doubleday. ISBN 0-385-19195-2. 
  22. Saltar a: a b c Tedre, Matti (2014). The Science of Computing: Shaping a Discipline. Taylor and Francis / CRC Press. 
  23. Volver arriba «IBM 704 Electronic Data Processing System – CHM Revolution» (en inglés). Computerhistory.org. Consultado el 7 de julio de 2013. 
  24. Volver arriba «IBM 709: a powerful new data processing system» (en inglés). Computer History Museum. Consultado el 12 de diciembre de 2014. 
  25. Volver arriba «IBM 704 Electronic Data Processing System – CHM Revolution». Computerhistory.org. Consultado el 7 de julio de 2013. 
  26. Volver arriba «IBM 709: a powerful new data processing system». Computer History Museum. Consultado el 12 de diciembre de 2014. 
  27. Saltar a: a b David Kahn, The Codebreakers, 1967, ISBN 0-684-83130-9.
  28. Saltar a: a b http://web.archive.org/web/http://www.cis.cornell.edu/Dean/Presentations/Slides/bgu.pdf
  29. Volver arriba Constable, R.L. (March 2000). Computer Science: Achievements and Challenges circa 2000 (PDF). 
  30. Volver arriba Abelson, H.; G.J. Sussman with J. Sussman (1996). Structure and Interpretation of Computer Programs (2nd edición). MIT Press. ISBN 0-262-01153-0. «La revolución de la computadora es una revolución en la manera de pensar y en la forma en que expresamos lo que pensamos. La esencia de este cambio es la aparición de lo que podría llamarse mejor epistemología procedimental —el estudio de la estructura del conocimiento desde un punto de vista imperativo, en oposición al punto de vista más declarativo tomada por temas matemáticos clásicos–.»  La referencia utiliza parámetros obsoletos (ayuda)
  31. Volver arriba «Black box traders are on the march.» The Telegraph, 26 de agosto de 2006.
  32. Volver arriba «The Impact of High Frequency Trading on an Electronic Market». Papers.ssrn.com. doi:10.2139/ssrn.1686004. Consultado el 14 de mayo de 2012. 
  33. Volver arriba Wegner, P. (October 13–15, 1976). «Research paradigms in computer science». Proceedings of the 2nd international Conference on Software Engineering. San Francisco, California, United States: IEEE Computer Society Press, Los Alamitos, CA. 
  34. Volver arriba Louis Fine (1959). «The Role of the University in Computers, Data Processing, and Related Fields». Communications of the ACM 2 (9): 7–14. doi:10.1145/368424.368427. 
  35. Volver arriba «Stanford University Oral History». Stanford University. Consultado el 30 de mayo de 2013. 
  36. Volver arriba id., p. 11
  37. Volver arriba Donald Knuth (1972). “George Forsythe and the Development of Computer Science”. Comms. ACM.
  38. Volver arriba Matti Tedre (2006). The Development of Computer Science: A Sociocultural Perspective, p.260
  39. Volver arriba Peter Naur (1966). «The science of datalogy». Communications of the ACM 9 (7): 485. doi:10.1145/365719.366510. 
  40. Volver arriba Communications of the ACM 1(4):p.6
  41. Volver arriba Communications of the ACM 2(1):p.4
  42. Volver arriba IEEE Computer 28(12):p.136
  43. Volver arriba P. Mounier-Kuhn, L’Informatique en France, de la seconde guerre mondiale au Plan Calcul. L’émergence d’une science, Paris, PUPS, 2010, ch. 3 & 4.
  44. Saltar a: a b Computing Sciences Accreditation Board (28 de mayo de 1997). «Computer Science as a Profession». Archivado desde el original el 17 de junio de 2008. Consultado el 23 de mayo de 2010. 
  45. Volver arriba Committee on the Fundamentals of Computer Science: Challenges and Opportunities, National Research Council (2004). Computer Science: Reflections on the Field, Reflections from the Field. National Academies Press. ISBN 978-0-309-09301-9. 
  46. Volver arriba «Csab, Inc». Csab.org. 3 de agosto de 2011. Consultado el 19 de noviembre de 2011. 
  47. Volver arriba Clay Mathematics Institute P=NP
  48. Volver arriba P. Collins, Graham. «Claude E. Shannon: Founder of Information Theory». Scientific American, Inc. 
  49. Volver arriba A. Thisted, Ronald. «COMPUTER ARCHITECTURE». The University of Chicago. Consultado el 7 de abril de 1997. 
  50. Volver arriba Wescott, Bob (2013). The Every Computer Performance Book, Chapter 3: Useful laws. CreateSpace. ISBN 1482657759. 
  51. Volver arriba «Software Engineering». Consultado el 1 de febrero de 2008. 
  52. Volver arriba Common myths and preconceptions about Cambridge Computer ScienceComputer Science Department, University of Cambridge.

Bibliografía[editar]

Enlaces externos[editar]

Fuentes bibliográficas y motores de búsqueda académicos enfocados a ciencias de la computación
Organizaciones Profesionales
Otros

El ajedrez apoyo educativo


Conocido como el juego ciencia, el ajedrez es milenario. Sobre su origen existen numerosas leyendas. En el libro <<Historia General Ajedrez>> el autor Julio Ganzo nos cuenta que la tradición sitúa el nacimiento del ajedrez en la India, en el Imperio Pataliputa, durante el reinado de Asoka. El inventor del juego habría sido un brahmá de nombre Sissa, profesor del príncipe Sirham.

Naturalmente, aquel ajedrez creado por el brahmán para demostrar a su monarca que para vencer en una batalla, el Rey necesitaba de sus súbditos, poseía características bien distintas del juego que se practica hoy en día. Bautizada como Chaturanga (del sanscrito, que luego originaría el persa chatrang y el arabe ax-xatranj y finalmente el castellano ajedrez), era diputado por cuatro personas que utilizaban dados sobre un tablero de 64 casillas sin distinción de colores.

Las piezas eran un rey (similar al rey del ajedrez actual), un elefante, un caballo y un barco (alfil).

Cuenta la tradición que el ajedrez de la antigua Persia era muy parecido al que se practica en la actualidad.

Se utilizaba un tablero con 64 escaques (casillas) claras y oscuras, piezas llamadas rey, ministro, barco, caballo, elefante e infante.

Los Arabes aprendieron el arte del ajedrez en Persia y se convirtieron en los grandes divulgadores de este juego en los países que conquistaron, principalmente en España. Ellos usaban piezas negras y rojas, que tenían las mismas disposiciones del ajedrez actual. En sus viajes trajeron el juego al resto de Europa a través de España.

La Leyenda de Sissa

Durante años se ha hablado de una hermosa leyenda que relata cómo su personaje principal Sissa inventó el ajedrez. Tal vez, pero la leyenda es la siguiente:

…En tiempos remotos vivía en la India, en la apartada región de Taligana, un generoso rey llamado Iadava, quien había perdido en reciente batalla a su hijo el príncipe Adjamir.

La tristeza y la angustia invadió al rey sumiéndolo en un profundo estado de melancolía que le separó de la vida pública de su provincia; el rey no entendía cómo habiendo ganado la batalla, su hijo el príncipe debió perder la vida.

Sus ministros y cortesanos hicieron lo imposible para distraer a su Rey; bufones, balabaristas, adivinos y afamados músicos y bailarines desfilaron ante el acongojado Rey; todo sin resultado positivo.

Enterado de ello, un modesto joven llamado Sissa, del pueblo de Lahur, se dedicó a crear un juego tan interesante que pudiera distraerlo de sus múltiples pesares, le hiciera comprender los errores de su campaña y le abriera nuevamente el corazón a la alegría.

Presentado ante el atribulado soberano, Sissa precedió a abrir una caja en la que guardaba un hermoso tablero de 64 casillas, y un juego de piezas de madera tallada. Seguidamente explico a su Rey que se trababa simplemente de un juego en el que participaban dos personas, quienes tendrían a su disposición dos ejércitos; cada uno de ellos igualmente constituido por la infantería, constituida por ocho piezas pequeñas llamadas peones; dos elefantes (artillería pesada), dos caballos (caballería), dos visires (consejeros) y una Reina con su Rey.

Tan sencilla y clara fue la presentación que pocas horas después el Rey conocía ya las reglas básicas del invento de Sissa, el juego del Ajedrez y se animaba a invitar a sus ministros para jugar partidas donde estos pudieran exhibir su inteligencia y talento militar.

Estas primeras partidas fueron muy provechosas porque lo enseñaron sobre la necesidad de planificar las acciones, la de luchar permanentemente por el logro de los objetivos y de sacrificar en ocasiones cosas valiosas en pro del bienestar de la mayoría. Además aprendió sobre los errores cometidos en combate permitiéndole comprender la importancia de la muerte de su hijo, del príncipe Adjamir, en la victoria obtenida para la sobrevivencia del reino de Taligana.

Días después, muy entusiasmado el Rey Iadava comenzó a incorporarse a la vida pública, a atender los asuntos de estado y las necesidades de su pueblo.

Habiendo vuelto la alegría a la corte el Rey Iadava quiso premiar la imaginación a la inteligencia de su súbdito Sissa, habiendo recibido de su propio Rey ofertas de fortunas, tierras y poder, y luego de reflexionar largamente, Sissa le contestó que su único interés al inventar el juego del ajedrez era que la alegría volviera a la corte y al pueblo de Taligana.

PROPOSITOS GENERALES DE LA

ENSEÑANZA DEL AJEDREZ

  1. Desarrollar en el individuo una actitud favorable hacia el ajedrez que permita apreciarlo como elemento generador de cultura.
  2. Desarrollar en el individuo su potencial intelectual a partir del estímulo de la esfera cognitiva.
  3. Garantizar al individuo la adquisición de conocimientos, habilidades y destrezas básicas necesarias para la incorporación a la vida activa.
  4. Permitir al individuo establecer vínculos (transferencias), entre los conocimientos y experiencias ajedrecistas y la vida cotidiana, individual y social.
  5. Favorecer la asimilación de las características del ajedrez que contribuyen con el armonioso desarrollo intelectual, moral y ético de la personalidad y que propicien su autonomía cognitiva y capacidad de razonamiento.
  6. Priorizar la resolución de problemas. El aprendizaje orientado a la resolución de problemas les brinda la oportunidad de analizar, evaluar y proponer alternativas de solución a situaciones de la vida diaria.
  7. Contribuir a la elevación de la autoestima.
  8. Favorecer el desarrollo del lenguaje ajedrecistico y su habilidad para la argumentación.
  9. Rescatar, para su uso pedagógico, el aspecto lúdico de esta disciplina.
  10. tomar en cuenta y de manera equilibrada, las diferentes y distintas teorías sicologías y las realidades concretas del aula, sugieren la imposibilidad de catalogar a los individuos de manera uniforme.

¿Por qué enseñar Ajedrez en las Escuelas?

Porque el Ajedrez

  • Es CULTURA. Una actividad lúdica de origen milenario; distribuida por todos los países del mundo y que encierra un cuerpo de conocimientos y experiencias que es patrimonio de la humanidad.
  • Tiene una base matemática. La matemática es el instrumento y lenguaje de la ciencia, la técnica y de pensamiento
  • Estimula el desarrollo de habilidades cognitivas tales como: atención, memoria, inteligencia y análisis; capacidades fundamentales en la evolución ulterior del individuo.
  • Permite transferencias a situaciones de la vida diarias.
  • Da una pauta ética en el momento propicio para la adquisición de valores
  • Estimula el autoestima, la sana competitividad y el trabajo en equipo.
  • Invita al estudio, preparación y evaluación permanente como vía al logro y perfeccionamiento individual.
  • Puede ser utilizado como elemento estructural del tiempo libre del estudiante.
  • Proporciona placer en su estudio y práctica.
  • Contribuye, debido a sus múltiples virtudes, a la formación de mejores ciudadanos.
  • Como medio escolar, lleva en sí un rico potencial de motivación y orientación hacia el análisis de los objetivos que persigue la educación, y más aún, proposiciones y soluciones.

Ventajas de la Enseñanza del Ajedrez

en la Educación Básica

Los Estudiantes de esta Etapa:

  1. Presentan un avance importante del pensamiento lógico. Se encuentran en el periodo del desarrollo cognoscitivo de las operaciones lógicas concretas y lógico abstractas.
  2. Han estabilizado algunas nociones cognitivas básicas y están en proceso de consolidación de otras.
  3. Han estabilizado las nociones de clasificación y seriación (concepto de número). Pueden agrupar objetos atendiendo a cualidades semejantes (forman clases y subclases) y están capacitados para ordenar elementos en función de una variable determinada.
  4. Están habilitados para realizar operaciones matemáticas básicas (suma, resta, etc.).
  5. Adquieren las nociones de línea, longitud y distancia.
  6. Están en proceso de construcción de las nociones infralógicas de tiempo y espacio.
  7. Comprenden las nociones de perspectiva, pudiendo establecer relaciones de objetos en el espacio.
  8. Adquieren las nociones de conservación del peso y conservación del volumen.
  9. Presentan mayor capacidad de atención, disciplina y conocimientos de las normas.
  10. Comienzan a desarrollar la autonomía moral e intelectual; manifiestan preocupación por la igualdad y consolida las actitudes y valores de solidaridad y respeto

La Edad para iniciarse

en el Ajedrez

Sobre esto se han vertido muchas opiniones, damos ahora una nueva: “Es posible empezar a vincular al niño con el ajedrez desde los primeros meses de vida”.

Está planteado que un niño en sus primeros meses de vida debe recibir entrenamientos de sus sentidos con actividades sencillas y que no impliquen ningún riesgo: al principio el tacto, el olfato, el oído y el gusto son sometidos a estímulos que emanan de la propia vida y atenciones que habitualmente se dispensa al recién nacido, ya cuando llega a cierto dominio de la visión es necesario aumentar en forma prevista el número y variedad de los estímulos simples y específicos para ejercitar los sentidos particulares y comenzar a integrar la acción conjunta de más de un sentido sobre un estímulo más complejo, o sea, ha de prepararse ya para las futuras percepciones sentando bases a la capacidad de lograr que las mismas sean lo más integradas y estructuradas posibles; es aquí donde aparece la posibilidad de utilizar el ajedrez; con un tablero de ajedrez y sus piezas se pueden organizar docenas de actividades de estímulos especialmente dirigidos a la vista y al tacto, y oportunamente a la coordinación de acciones motoras motivadas por estos estímulos francamente, esa escena de un niño de seis meses sosteniendo a un caballo de ajedrez con su manito y con mirada brillante de atención, sin ningún proceso de analogía dejando que toda esa estética de líneas lo inunde, tocando las puertas de su cerebro para que dicha imagen se archive lo mejor posible, sin lugar a dudas encierra todo el optimismo de la vida y la conciencia total de que tenemos el privilegio de estar contemplando a un gigante en potencia.

Hemos querido expresar justificaciones de que el ajedrez ha de vincularse lo más temprano posible a la vida de un niño, guardando por supuesto, la consideración de su grado de desarrollo, según la edad e individualidades. El papá del futuro ajedrecista puede influir en alto grado, pues no sólo para que en la primera sea impartido el ajedrez, sino también en la etapa progresiva del joven, en lo que después se considerará como el gran talento natural de su hijo para el ajedrez, pero no olvide que el ajedrez será el medio que unido al método adecuado de enseñanza se convertirá en una disponible y saludable gimnasia mental y en una educación del raciocinio; ello no lleva a recordar que el ejercicio sistemático de la mente genera creatividad y que ésta es la base de auto-información, que como capacidad nos da acceso a todo conocimiento, y que todo ello se integra en el adulto en un poderoso tono mental, que genera una gran autoconfianza y elevados valores humanos; ambos bases de la realización total del hombre.

 

 

DSC05108[1]