jesus231rg
Tecnologías de la Información
13 posts
Blog Educativo TecNM Campus Región Carbonifera
Don't wanna be here? Send us removal request.
jesus231rg · 1 year ago
Text
MAPA MENTAL DE LAS TIC
Tumblr media
0 notes
jesus231rg · 1 year ago
Text
APLICACIONES BASICAS DE TELECOMUNICACIONES
Tumblr media
2.1 fundamentos de telecomunicaciones
Una telecomunicación es toda transmisión y recepción de señales de cualquier naturaleza electromagnética, que contengan signos, sonidos, imágenes o, en definitiva, cualquier tipo de información que se desee comunicar a cierta distancia.
La telecomunicación incluye muchas tecnologías como la radio, televisión, teléfono y telefonía móvil, comunicaciones de datos, redes informáticas o Internet. Gran parte de estas tecnologías, que nacieron para satisfacer necesidades militares o científicas, ha convergido en otras enfocadas a un consumo no especializado llamadas tecnologías de la información y la comunicación, de gran importancia en la vida diaria de las personas, las empresas o las instituciones estatales y políticas.
2.1.1 medios de comunicación
Los medios de comunicación son instrumentos en constante evolución.
El propósito principal de los medios de comunicación es, precisamente, comunicar con objetividad, pero según su tipo de ideología pueden especializarse en: informar, educar, transmitir, entretener, formar opinión, enseñar, controlar, etc.
Positivas. Las características positivas de los medios de comunicación residen en que posibilitan que amplios contenidos de información lleguen a extendidos lugares del planeta en forma inmediata, como pueden ser noticias, avances tecnológicos, descubrimientos científicos, etc. De esta forma más personas tienen acceso a este tipo de información de manera rápida.
Los medios de comunicación, de igual manera, hacen posible que muchas relaciones personales se mantengan unidas o, por lo menos, no desaparezcan por completo a medida que facilitan la comunicación en tiempo real. Otro factor positivo se da en el ámbito económico: quien posea el uso de los medios puede generar un determinado tipo de consciencia sobre una especie de producto, es decir, puede generar su propia demanda, ya que los medios muchas veces cumplen la función de formadores de opinión. Entonces, visto desde el ámbito empresarial, es un aspecto amplia mente positivo al hacer posible el marketing y anuncios para el mundo. 
Negativas.
 Las características negativas recaen en la manipulación de la información y el uso de la misma para intereses propios de un grupo específico. En muchos casos, tiende a formar estereotipos, seguidos por muchas personas gracias al alcance que adquiere el mensaje en su difusión (como sucede al generalizar personas o grupos). Otro aspecto negativo de los medios masivos de comunicación radica en que la censura no es absoluta, por lo tanto menores de edad pueden tener acceso a contenido explícito como es el caso de la televisión o el Internet.
Distintos medios de comunicación
2.1.2 redes e Internet.
Es cuando existe una serie de recursos computacionales conectados entre sí (computadoras, impresoras,…) en que muchos de ellos pueden comunicarse con muchos otros, estamos frente a una red “computacional”.
TIPOS DE REDES
Tumblr media
Redes Locales:
En las redes de computadoras, se le llama Red Local (o Red de Área Local, también llamada LAN) a aquella red computacional que abarca una pequeña extensión geográfica (un edificio u oficina) en donde las computadoras se conectan entre sí mediante algún tipo de cable.
Redes Amplias:
Cuando se conectan distintas redes locales entre sí, se forman redes de una mayor extensión geográfica (ciudad, país). Estas son conocidas como redes de área amplia (WAN).
Internet
Internet es un conjunto de redes interconectadas a escala mundial. Puede definirse como una red mundial de redes de ordenadores. No es por tanto una red de ordenadores en el sentido usual, sino una red de redes que tiene la particularidad que cada una de las redes es independiente y autónoma.
CLASIFICACIÓN DE LAS REDES
POR ALCANCE
Red de área personal, o PAN (Personal Area Network). Es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.
Red inalámbrica de área personal, o WPAN (Wireless Personal Area Network): Es una red de computadoras inalámbrica para la comunicación entre distintos dispositivos cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y de uso personal, así como fuera de ella.
Red de área local, o LAN (Local Area Network): Es una red que se limita a un área especial relativamente pequeña, de entorno doméstico, como un cuarto, un departamento, un avión.. No utilizan medios o redes de interconexión públicos.
Red de área local inalámbrica, o WLAN (Wireless Local Area Network), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área local cableadas o como extensión de estas.
Redes de área amplia, o WAN (Wide Area Network), son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet, fibras ópticas públicas, entre otros.
Red de área local virtual, o VLAN (Virtual LAN), es un grupo de computadoras con un conjunto común de recursos y requerimientos a compartir y, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cual todos los nodos pueden alcanzar a los otros por medio de broadcast en la capa de enlace de datos, a pesar de su diversa localización física.
POR TIPO DE CONEXIÓN
El cable coaxial: se utiliza para transportar señales electromagnéticas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo y uno exterior denominado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes; los cuales están separados por un material dieléctrico que, en realidad, transporta la señal de información.
El cable de par trenzado: es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes. Dependiendo de la red se pueden utilizar, uno, dos, cuatro o más pares.
La fibra óptica: es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir.
2.2 Medios virtuales de aprendizaje
Podemos decir que un ambiente virtual de aprendizaje es un entorno de aprendizaje mediado por tecnología que transforma la relación educativa gracias a: la facilidad de comunicación y procesamiento, la gestión y la distribución de información, agregando a la relación educativa nuevas posibilidades y limitaciones para el aprendizaje. Los ambientes o entornos virtuales de aprendizaje son instrumentos de mediación que posibilitan las interacciones entre los sujetos y median la relación de estos con el conocimiento, con el mundo, con los hombres y consigo mismo.
Las tecnologías de la información y la comunicación aplicadas a la educación y a la creación de entornos virtuales de aprendizaje nos dan la posibilidad de romper las barreras espacio temporales que existen en las aulas tradicionales y posibilitan una interacción abierta a las dinámicas del mundo.
Tumblr media
Según Consuelo Belloch citando a Boneu (2007) «hay cuatro características básicas, e imprescindibles, que cualquier plataforma de e-learning debería tener:
Interactividad: conseguir que la persona que está usando la plataforma tenga conciencia de que es el protagonista de su formación. Flexibilidad: conjunto de funcionalidades que permiten que el sistema de e-learning tenga una adaptación fácil en la organización donde se quiere implantar, en relación a la estructura institucional, los planes de estudio de la institución y, por último, a los contenidos y estilos pedagógicos de la organización. Escalabilidad: capacidad de la plataforma de e-learning de funcionar igualmente con un número pequeño o grande de usuarios. Estandarización: Posibilidad de importar y exportar cursos en formatos estándar. Los elementos esenciales en los cuales se ha de articular el aprendizaje y el trabajo cooperativo en un EVA (Entorno Virtual de Aprendizaje) son:
Estrategias de comunicación en entornos virtuales: mensajes concretos y concisos, claridad de los argumentos, precisión semántica, fluidez comunicativa (poca dilación temporal). El dominio de las herramientas es un requisito pero no un obstáculo. Un EVA combina herramientas para la gestión de los materiales de aprendizaje, para la gestión de las personas participantes, incluidos sistemas de seguimiento y evaluación del progreso de los estudiantes, ofreciendo desde el punto de vista didáctico soporte tecnológico para optimizar distintas fases del proceso de enseñanza y aprendizaje: planificación, implementación, desarrollo y evaluación.
0 notes
jesus231rg · 1 year ago
Text
EVOLUCION DEL SOFTWARE
Tumblr media
1980
La llegada de Suene
Usenet (construido sobre la infraestructura de lo que hoy es llamado Internet) fue en muchos aspectos el precursor de los actuales foros de Internet y la World Wide Web (www) por casi una década.
1983
Richard Stallman comienza con el proyecto GNU
Iniciado por Richard Stallman en 1983
El proyecto GNU resultó en una inmensa cantidad de Software libre a través del tiempo y dio lugar al nacimiento de la Licencia Pública General (GPL, General Public License), siendo la licencia más popular en el Software Libre.
1989
Se empieza a trabajar en 386BSD
Aunque Unix BSD ha sido Software libre por muchos años y ha tenido una de las primeras licencias de software libre (la licencia BSD), por desgracia también necesita una licencia independiente de AT&T para poder utilizarlo, puesto que incluía código de AT&T Unix.
En desarrollo desde 1989, fue la primera versión en ser completamente libre y software abierto, independientemente de la licencia AT&T.
1991
 Linus Torvalds crea Linux
La decisión de Linus Torvalds de desarrollar su propia 1991 versión del kernel Minix resultó en el mundialmente famoso Linux, que inicialmente lo quería llamar “Freax”. El kernel Linux se convirtió en la última pieza para el sistema operativo del proyecto GNU, ofreciendo un sistema operativo completamente libre y de código abierto.
1993
La fundación de Red Hat
Red Hat, una compañía basada alrededor de su propia distribución Linux, hizo al Software libre una gran negocio. La compañía demostró que era altamente rentable como lo que es, en esencia, gratis.
1993
Creación del proyecto Debian
Debian fue fundada en 1993 por Ian Murdok con las intenciones de crear una distribución basada íntegramente en Software Libre, aunque lanzo sus primeras versiones en 1994/95. El proyecto Debian es ajeno a todo interés comercial o empresarial, demostrando de esta forma que puede crearse una distribución robusta mediante la colaboración de los desarrolladores y usuarios.
1994
Comienza el desarrollo de MySQL
Michael Widenius y David Axmark empezaron a desarrollar MySQL en 1994 y liberaron su primera versión en 1995.
A través de los años, MySQL se ha convertido en la solución por excelencia para bases de datos de código abierto usada por una inmensa cantidad de compañías y sitios web como Facebook y Wikipedia.
1996
Apache toma la web
El servidor http Apache mostró cómo un producto de Software Libre puede dominar el mercado casi por completo. Apache ha sido el software para servidores web mas usado en Internet desde 1996, y no parece que esto vaya a cambiar en mucho tiempo.
1998
Netscape libera el código fuente de su navegador Web.
En su incesante y desesperada batalla contra Microsoft e Internet Explorer, Netscape finalmente decidió liberar el código fuente de su navegador web en 1998 y empezó el proyecto de Software Libre comunitario Mozilla para mantener la competición. Aunque Netscape se desvaneció en la oscuridad, sin este histórico movimiento no hubiera habido Mozilla, y sin Mozilla no hubiera habido Firefox. Por lo desconocemos qué tanta influencia ha ganado y tiene este navegador.
2004
Canonical libera Ubuntu
Cuando la compañía del sudafricano multimillonario Mark Shuttleworth, Canonical, liberó la distro basada en Debian: Ubuntu en 2004, pocos pudieron predecir que masivo éxito sería. Ubuntu rápidamente se volvió la distro Linux más usada al momento, especialmente en el escritorio, que ha llevado a las masas y grupos a Linux como ninguna otra distribución Linux.
0 notes
jesus231rg · 1 year ago
Text
Sistema operativo de computadoras
Tumblr media
El sistema operativo es el software que coordina y dirige todos los servicios y aplicaciones que utiliza el usuario en una computadora, por eso es el más importante y fundamental. Se trata de programas que permiten y regulan los aspectos más básicos del sistema. Los sistemas operativos más utilizados son Windows, Linux, OS/2 y DOS.
Los sistemas operativos, también llamados núcleos o kernels, suelen ejecutarse de manera privilegiada respecto al resto del software, sin permitir que un programa cualquiera realice cambios de importancia sobre él que puedan comprometer su funcionamiento.
El sistema operativo es el protocolo básico de operatividad del computador, que coordina todas sus demás funciones de comunicaciones, de procesamiento, de interfaz con el usuario.
Los sistemas operativos consisten en interfaces gráficas, entornos de escritorio o gestores de ventanas que brindan al usuario una representación gráfica de los procesos en marcha. También puede ser una línea de comandos, es decir, un conjunto de instrucciones ordenado según su prioridad y que funciona en base a órdenes introducidas por el usuario.
Las primeras versiones de las computadoras no tenían sistemas operativos. En la década de los sesenta los ordenadores usaban procesamientos por lotes y fue durante estos años cuando comenzaron a desarrollarse los sistemas operativos.
Si bien a partir de los ochenta ya habían comenzado a surgir algunos muy conocidos, a partir de los noventa estos programas comenzaron a ser más flexibles y fuertes. Uno de los grandes hitos fue el lanzamiento de Windows 95.
Tipos de sistema operativo
Los tipos de sistema operativo varían según el hardware y la función de cada dispositivo. Existen algunos para ordenadores y otros para dispositivos móviles.
Según el usuario pueden ser: multiusuario, sistema operativo que permite que varios usuarios ejecuten simultáneamente sus programas; o monousuario, sistema operativo que solamente permite ejecutar los programas de un usuario a la vez.
Según la gestión de tareas pueden ser: monotarea, sistema operativo que solamente permite ejecutar un proceso a la vez; o multitarea, sistema operativo que puede ejecutar varios procesos al mismo tiempo.
Según la gestión de recursos pueden ser: centralizado, sistema operativo que solo permite utilizar los recursos de un solo ordenador; o distribuido, sistema operativo que permite ejecutar los procesos de más de un ordenador al mismo tiempo.
Ejemplos de sistemas operativos
MacOS es desarrollado para computadores Apple.
Microsoft Windows. De los más populares que existen, inicialmente se trató de un conjunto de distribuciones o entornos operativos gráficos, cuyo rol era brindar a otros sistemas operativos más antiguos como el MS-DOS una representación visual de soporte y de otras herramientas de software. Se publicó por primera vez en 1985 y desde entonces se ha actualizado a nuevas versiones.
MS-DOS. Se trata del Sistema Operativo de Disco de MicroSoft (siglas en inglés de MicroSoft Disk Operating System), uno de los sistemas operativos más comunes para computadoras personales IBM durante la década de 1980 y mediados de los 90. Contaba con una serie de comandos internos y externos mostrados en una pantalla oscura de manera secuencial.
UNIX. Este sistema operativo fue desarrollado en 1969 para ser portable, multitarea y multiusuario. Se trata realmente de una familia entera de SO similares, algunas de cuyas distribuciones se han ofrecido comercialmente y otros en formato libre, siempre a partir del núcleo llamado Linux.
MacOS. Es el sistema operativo de los computadores Macintosh de Apple, también conocido como OSX o Mac OSX. Basado en Unix y desarrollado y vendido en computadores Apple desde 2002, se trata de la competencia más acérrima del popular Windows.
Ubuntu. Este sistema operativo es libre y de código abierto, o sea, todo el mundo puede modificarlo sin violar derechos autorales. Toma su nombre de cierta filosofía surafricana ancestral, enfocada en la lealtad del hombre hacia su propia especie por encima de todo. Basado en GNU/Linux, Ubuntu se orienta hacia la facilidad de uso y la libertad total. La empresa británica que lo distribuye, Canonical, subsiste brindando servicio técnico.
Android. Este sistema operativo basado en el núcleo Linux opera en teléfonos celulares y tablets y otros artefactos dotados de pantalla táctil. Fue desarrollado por Android Inc. y comprado posteriormente por Google, gracias a lo cual es tan popular que las ventas de sistemas informáticos Android superan a las de IOS (para teléfonos celulares Macintosh) y a las de Windows Phone (para teléfonos celulares MicroSoft).
0 notes
jesus231rg · 1 year ago
Text
software libre y con licencia
Tumblr media
software libre
Su definición está asociada al nacimiento del movimiento del software libre, encabezado por Richard Stallman y la fundación de la Free Software Foundation (Fundación por el Software Libre) en 1985.
El software libre es todo aquel software cuyo código fuente se puede estudiar, modificar y utilizar libremente con cualquier fin, e incluso, copiar y redistribuir el programa con cambios o sin ellos.
En otras palabras, este tipo de software le da la libertad a cualquier persona u organización de usar un programa para cualquier clase de trabajo y sin la obligación de comunicárselo a un desarrollador o a alguna entidad específica.
¿Cuáles son las 4 libertades del software libre?
Para que un programa sea de software libre, este debe contar con cuatro libertades:
Libertad 0: de usar el programa con cualquier propósito
La libertad de ejecutar el programa con cualquier propósito se trata de que todo usuario es libre de utilizar el software en:cualquier sistema de computación;
con cualquier tipo de trabajo y finalidad; sin obligación de comunicar a ninguna entidad específica o al programador.En otras palabras, al usuario no se le prohíbe o se le impide ejecutarlo ya que lo que importa es su propósito y no el del programador.
Libertad 1: de estudiar cómo funciona el programa y poder modificarlo
Para tener las libertades 1 y 3 es necesario tener acceso al código fuente, por lo que esta es una condición fundamental para el software libre.
Ahora bien, la Libertad 1 constituye la libertad de usar la versión modificada (según los deseos y necesidades del usuario) en lugar de la original.
Libertad 2: de distribuir copias del programa a cualquier persona u organización
La libertad para distribuir el programa (Libertades 2 y 3), consiste en que los usuarios tienen la libertad de redistribuir y compartir copias con o sin modificaciones, sin necesidad de pedir ni pagar algún permiso para hacerlo.
Además, se puede distribuir los programas gratuitamente o cobrando alguna tarifa por ello.
Libertad 3: de mejorar el programa y compartir las mejoras en beneficio de todos
La Libertad 3 permite mejorar el programa — y, al igual que la libertad 2 — posibilita compartir y liberar las versiones modificadas como software libre y, de tal forma, beneficiar con ello a las personas u organizaciones que lo utilicen.
Tipos de software libre
En principio, el Software Libre puede ser de cualquier tipo, desde sistemas operativos para controlar de manera personalizada el funcionamiento y los recursos del computador, hasta aplicaciones adaptables a las necesidades del usuario, videojuegos intervenibles, y programas de gestión de periféricos que pueden modificarse y atender así los requerimientos específicos de diversas piezas de hardware.
Ejemplos de software libre
Chrome OS empleará Google Chrome como su interfaz principal.
Algunas de las distribuciones o presentaciones más populares del mundo del Software Libre son las siguientes:
GNU/Linux. Uno de los programas más importantes histórica y popularmente, encabezó el esfuerzo por un software de código abierto en el mundo de la Internet desde 1983.
Chrome OS. Basado en el kernel de Linux, este sistema operativo actualmente en desarrollo por la empresa Google Inc. empleará el explorador Google Chrome como su interfaz principal y se basa 100% en la nube.
VALO-CD. Se trata de un CD con software de código abierto diseñado para operar bajo el entorno de Microsoft Windows, desarrollado por programadores Finlandeses en 2008.
OpenDisc. Otro conjunto de herramientas de código abierto diseñadas para funcionar en Microsoft Windows, creados en 2007 para educar a los usuarios en el uso de Linux.
Ubuntu. Es una distribución libre de GNU/Linux que emplea tecnología GNOME como su entorno virtual de escritorio, cuya empresa creadora sobrevive ofreciendo soporte técnico a sus usuarios
Fuente: https://concepto.de/software-libre/#ixzz8BtEDgKYF
¿Qué son las licencias de software?
Las licencias de software son un contrato entre el autor de un programa informático y los usuarios del mismo. En ellas se establecen los términos, condiciones y cláusulas que se deben cumplir para poder usar ese programa y cada usuario que se descarga, instala, copia o lo utiliza debe aceptar esas condiciones.  
Desde los años ochenta, el número de tipos de licencias no ha parado de crecer, ya que las empresas de programación comenzaron a limitar el uso de software en función de sus intereses. Para entender el mundo de las licencias hay que diferenciar entre dos grandes tipos: software libre y software de propietario.
El software libre carece de copyright. No tiene por qué ser gratuito, pero el usuario tiene libertad sobre ese programa para usarlo, copiarlo, modificarlo y distribuirlo a su gusto. Eso permite a los millones de desarrolladores del mundo ampliar sus posibilidades y expandir saber y conocimiento. 
El software de propietario, en cambio, es aquel que su creador o dueño legal limita o prohíbe la copia, redistribución y modificación sin su permiso o sin un pago previo. 
Además de estos dos tipos de licencias, nos encontramos el software gratuito o de dominio público, que carece de copyright y se puede utilizar, aunque el autor puede imponer restricciones a la hora de redistribuir el programa y los trabajos derivados del mismo. Por otro lado, existe la licencia de software semi libre, es decir, que tiene propietario, pero el programa viene con autorización para usar, copiar, distribuir y modificar si eres un particular y careces de ánimo de lucro.
Cuando adquirimos un programa, sea bajo el tipo de licencia que sea, lo que adquirimos es una licencia de uso, nunca el programa en sí, y como norma general se otorga una licencia por punto de uso o dispositivo.
Licencias de software libre 
Las licencias de software libre permiten ejecutar el programa, estudiar su funcionamiento, adaptarlo a las necesidades de cada usuario, copiarlo y redistribuirlo y, por supuesto, mejorarlo y poner esas mejoras al alcance y servicio de toda la comunidad. Entre las licencias libres existen algunas diferencias. 
Licencias de software libre no protegido con copyleft
Son aquellas cuyo autor autoriza para redistribuir, modificar y añadir restricciones adicionales a algunas copias o versiones modificadas, que pueden no ser libres completamente y requieren un software de pago para que funcionen algunos elementos.
Licencias de software protegidas con copyleft
En contraposición al copyright o copia reservada (derechos de autor), son software libre que no permiten a quienes lo cambian o redistribuyen agregar ninguna restricción adicional. Así, cada copia del software, aun si ha sido modificado, debe ser software libre. Copyleft es una práctica legal que consiste en el ejercicio del derecho de autor para propiciar el libre uso y distribución de una obra, y exige las mismas libertades al distribuir sus copias y derivados.
Licencia de software de GPL (GNU LGPL)
Es software libre y permite que se enlace con módulos no libres. Debe estar disponible y accesible para copias ilimitadas y a cualquier persona que lo solicite. En su primera versión se llamaba ‘Licencia Pública General para Bibliotecas de GNU’.
Licencia BSD
Es una licencia permisiva, pues casi no impone condiciones sobre lo que un usuario puede hacer. Es la menos restrictiva para los desarrolladores. El software puede ser vendido y no hay obligaciones de incluir el código fuente.
Licencias de MPL
Son las de Mozilla Firefox, Mozilla Thunderbird y la mayoría de otros software de Mozilla y algo menos permisivas que las anteriores.   
Licencia de software de Debian 
Su nombre completo es Debian Free Software Guidelines-DFSG y de ella deriva la licencia de Open Source Initiative. Establece en sus criterios de distribución la exigencia de publicación del código fuente, la redistribución libre (también del trabajo derivado bajo la misma licencia del original) y que no puede discriminar a ninguna persona o grupo de personas, ni el software ni ninguna forma de su utilización.
Licencia Open Source Initiative
Una de las licencias más conocidas y utilizadas, llamada también de fuentes abiertas o código abierto, que permite la libre distribución (también del código fuente), la modificación del mismo, los desarrollos derivados y su redistribución en las mismas condiciones que el software original. Además, Open Source establece la integridad del código fuente del autor, que no debe ser discriminatoria de persona alguna o grupos de personas, ni restringir la utilización del software a campos de dominio o actividad y debe ser neutral en relación con la tecnología. 
Licencia de software de X.org (X Windows System)
Distribuida por el Consorcio X (es la organización que controla su desarrollo), es usada en los sistemas operativos Linux y UNIX nacidos como alternativa a la oligarquía de los sistemas gráficos como Microsoft. Es también software libre, aunque sin adherirse al copyleft.
Licencia de software Freeware
Autoriza el uso del software de forma libre y gratuita, pero en general a particulares y no a empresas u organismos oficiales. 
Licencia de software de Donationware
Es similar a la licencia Freeware, pero pide a cambio un donativo, aunque no sea obligatorio hacerlo para poder utilizarla. La licencia de software de Postcardware, también se parece, pero en vez de un donativo, suele pedir el envío de una postal como confirmación de su utilización.
Licencias de prueba o Shareware
Todos los usuarios nos hemos encontrado alguna vez con este tipo de licencia. Suelen  pedir un registro previo y autoriza el uso de un programa para que el usuario lo evalúe y posteriormente lo compre. La licencia de Demo es la sesión de un programa para su evaluación. Son muy populares en el caso de pruebas de juegos, por ejemplo.
Licencias de software de propietario
Con las licencias de software de código cerrado o software propietario o privativo (llamadas CLUFs o para usuario final), los propietarios establecen los derechos de uso, distribución, redistribución, copia, modificación, cesión y cualquier otra consideración necesaria. Los fabricantes de programas sometidos a ellas ofrecen servicios de soporte técnico y actualizaciones durante el tiempo de vida del producto.
Este tipo de licencias no suelen permitir que el software sea modificado, desensamblado, copiado o distribuido (lo que sería considerado piratería), regulan el número de copias que pueden ser instaladas y los fines concretos para los cuales puede ser utilizado. 
Licencia de software de privativo
Su uso, redistribución o modificación está prohibida, o requiere que se solicite autorización.
Licencia de software de Comercial
Es aquel que está desarrollado por una entidad que tiene la intención de monetizarlo por su uso. 
Licencia de software de OEM 
Supedita su venta a que ese software debe formar parte de un equipo nuevo (el caso del sistema operativo Microsoft cuando nos compramos un nuevo ordenador).
Licencia de software de Retail
Es software que se vende. El programa es de la entera propiedad del usuario nuevo y puede venderlo o regalarlo.
Licencia de software de volumen
Su destino son los grandes usuarios (empresas) y el contrato de adquisición estipula un determinado número de equipos que pueden utilizar el mismo código. 
0 notes
jesus231rg · 1 year ago
Text
Arquitectura en computadoras
Tumblr media
La arquitectura de computadoras es la organización lógica de los equipos informáticos. Se trata de un conjunto de principios que describen cómo se pueden describir las características del hardware del ordenador y cómo interactúan entre sí. La arquitectura de los ordenadores también engloba la microarquitectura de la CPU, entre otros componentes. La arquitectura de un ordenador determina su rendimiento, sus capacidades y sus límites. La arquitectura tiene diferentes significados en distintos campos. Cuando se habla de arquitectura de ordenadores, suele referirse a la lógica de un dispositivo informático. Suele referirse a los principios fundamentales que guían el diseño de los procesadores o chips informáticos, sus unidades y métodos de funcionamiento. En esta entrada del blog, responderemos a todas tus preguntas sobre la arquitectura de los ordenadores, incluyendo qué es, ejemplos, ventajas y desventajas y mucho más. ¿Qué es la arquitectura de computadoras? La arquitectura de computadoras es la organización lógica del hardware de los ordenadores. Se trata de un conjunto de principios que describen cómo se pueden describir las características del hardware del ordenador y cómo interactúan entre sí. La arquitectura de los ordenadores también se denomina arquitectura de la CPU o arquitectura del ordenador. La arquitectura de un ordenador determina su rendimiento, sus capacidades y sus límites. La arquitectura tiene diferentes significados en distintos campos. Cuando se habla de arquitectura de ordenadores, suele referirse a la lógica de un dispositivo informático. Suele referirse a los principios fundamentales que guían el diseño de los procesadores o chips informáticos, sus unidades y métodos de funcionamiento. En esta entrada del blog, responderemos a todas tus preguntas sobre la arquitectura de los ordenadores, incluyendo qué es, ejemplos, ventajas y desventajas y mucho más. ¿Qué importancia tiene la arquitectura? La arquitectura de los ordenadores es importante en el sentido de que determina cómo funcionará un ordenador y para qué se puede utilizar. Determina el rendimiento, el consumo de energía, el tamaño y el coste del ordenador. Una arquitectura de ordenador puede ser una combinación de hardware y software, o sólo una de las dos. Una arquitectura de hardware es la implementación de la lógica de un ordenador, mientras que la arquitectura de software es la implementación de la funcionalidad de un ordenador. Sin embargo, la arquitectura de software depende en gran medida de la arquitectura de hardware. Arquitectura de ordenadores y arquitectura de software Los términos arquitectura de computadoras y arquitectura de software no son lo mismo y tienen significados totalmente diferentes. Mientras que la arquitectura de los ordenadores es la lógica que dirige un dispositivo físico, la arquitectura del software es la lógica que dirige la funcionalidad de un dispositivo. ¿Para qué sirve la arquitectura de los ordenadores? En base a la arquitectura de computadoras se pueden diseñar y construir éstas. Por eso, es importante diferenciar los distintos componentes que existen en ella y también los tipos de arquitecturas existentes, ya que de ello dependerá el tipo de ordenador resultante, sus capacidades y funcionalidad, etc. Componentes principales de la arquitectura Hay varios componentes principales de la arquitectura del ordenador:
CPU: es la unidad central de procesamiento o microprocesador. Esta parte se encarga de ir ejecutando las diferentes instrucciones de la ISA y los datos que el software emplea para su ejecución. Es decir, es la encargada de ejecutar los programas informáticos, incluido el sistema operativo.
Bus: se refiere a los componentes que entrelazan partes de la computadora y pueden ser de varios tipos y características, como el bus de datos, el bus de direcciones, y el bus de control.
Memoria principal: es la memoria RAM, generalmente, donde se guardan los programas que se van a ejecutar, es decir, los datos e instrucciones necesarios para un proceso y que serán reclamados por la CPU.
E/S: por supuesto, las computadoras también necesitan un sistema de entrada y salida de la información, es decir, puertos por donde enviar y recibir datos. Esto es fundamental para el usuario, ya que de lo contrario no podría interactuar con la computadora. En definitiva, los componentes esenciales de la arquitectura se corresponden con los componentes que forman parte de la descripción de una computadora. Tipos de arquitectura de computadoras Hay varios tipos de arquitectura de computadoras:
El primero es la arquitectura de flujo de datos. La arquitectura de flujo de datos es una arquitectura paralela en la que los datos pasan por las diferentes etapas del cálculo. En esta arquitectura, el resultado de un cálculo se utiliza como entrada para otro cálculo.
El segundo ejemplo es la arquitectura von Neumann. La arquitectura von Neumann es una arquitectura secuencial en la que el cálculo se ejecuta secuencialmente. El cálculo se realiza en un orden secuencial. Esta arquitectura tiene una unidad central de procesamiento (CPU), una memoria y dispositivos de entrada-salida.
El tercer ejemplo es la arquitectura Harvard. Esta arquitectura es una versión modificada de la arquitectura von Neumann. Tiene dos memorias separadas: una para las instrucciones del programa y otra para los datos.
El cuarto ejemplo es la arquitectura Harvard modificada. Es una combinación de la arquitectura de flujo de datos y la arquitectura Harvard. En esta arquitectura, hay una memoria de programa y una memoria de datos. Ejemplos Arquitectura dataflow En la arquitectura de flujo de datos, los datos pasan por las diferentes etapas del cálculo. En esta arquitectura, el resultado de un cálculo se utiliza como entrada para otro cálculo. La arquitectura de flujo de datos es una arquitectura paralela en la que los datos pasan por diferentes etapas de cálculo. En esta arquitectura, el resultado de un cálculo se utiliza como entrada para otro cálculo. El cálculo se realiza en paralelo utilizando una red de procesadores, una red de interconexión y algún tipo de almacenamiento. Arquitectura von Neumann La arquitectura von Neumann es una arquitectura secuencial en la que el cálculo se ejecuta de forma secuencial. El cálculo se realiza en un orden secuencial. Esta arquitectura tiene una unidad central de procesamiento (CPU), una memoria y dispositivos de entrada-salida. La CPU tiene un registro de instrucciones y un registro de datos. La memoria es un dispositivo de almacenamiento que contiene las instrucciones y los datos durante el cálculo. También se utiliza para almacenar datos e instrucciones. Los dispositivos de entrada y salida se utilizan para comunicarse con el mundo exterior. Incluyen teclados, pantallas, impresoras, escáneres y otros dispositivos. Arquitectura Harvard Esta arquitectura es una versión modificada de la arquitectura von Neumann. Tiene dos memorias separadas: una es para las instrucciones del programa y la segunda es para los datos. Arquitectura Harvard modificada Es una combinación de la arquitectura de flujo de datos y la arquitectura Harvard. En esta arquitectura, hay una memoria de programa y una memoria de datos. Fuente: https://www.profesionalreview.com/2022/10/01/arquitectura-de-computadoras/
0 notes
jesus231rg · 1 year ago
Text
Computadoras Cuanticas
Tumblr media
Es una tecnología que aprovecha las leyes de la mecánica cuántica para resolver problemas demasiado complejos que no pueden ser resueltos por las computadoras tradicionales. 
Hoy, IBM Quantum hace que el hardware cuántico real, una herramienta que los científicos comenzaron a imaginar hace solo tres décadas, esté disponible para miles de desarrolladores. Nuestros ingenieros ofrecen procesadores cuánticos superconductores cada vez más potentes en intervalos regulares, lo que permite avanzar para obtener la velocidad y la capacidad informática cuántica necesarias para cambiar el mundo. 
Estas máquinas son muy diferentes a las computadoras tradicionales que existen desde hace más de medio siglo. A continuación, se presenta una introducción a esta tecnología transformadora.
¿Cómo funcionan las computadoras cuánticas?
Las computadoras cuánticas son máquinas elegantes, más pequeñas y que requieren menos energía que las supercomputadoras.
Un procesador IBM Quantum es una oblea no más grande que la que se puede encontrar en una computadora portátil.
Un sistema de hardware cuántico tiene aproximadamente el tamaño de un automóvil, compuesto principalmente por sistemas de enfriamiento para mantener el procesador superconductor a una temperatura operativa ultrafría.
Un procesador clásico utiliza bits para realizar sus operaciones. Una computadora cuántica usa qubits para ejecutar algoritmos cuánticos multidimensionales.
Superfluidos Es probable que su computadora desktop use un ventilador para enfriarse lo suficiente para trabajar. Nuestros procesadores cuánticos deben estar muy fríos, alrededor de una centésima de grado sobre cero. Para lograr esto, usamos superfluidos superenfriados para crear superconductores.
Superconductores A esas temperaturas ultrabajas, ciertos materiales en nuestros procesadores exhiben otro efecto mecánico cuántico importante: los electrones se mueven a través de ellos sin resistencia. Esto los convierte en "superconductores".
Cuando los electrones pasan a través de los superconductores, se emparejan y forman "pares de Cooper". Estos pares pueden transportar una carga por barreras o aisladores a través de un proceso conocido como efecto túnel. Dos superconductores colocados a ambos lados de un aislador forman una unión de Josephson.
Control Nuestras computadoras cuánticas usan uniones de Josephson como qubits superconductores. Al disparar fotones de microondas a estos qubits, se puede controlar su comportamiento y hacer que retengan, cambien y lean unidades individuales de información cuántica.
Superposición Un qubit en sí mismo no es muy útil, pero puede realizar un truco importante: colocar la información cuántica que contiene en un estado de superposición, lo que representa una combinación de todas las configuraciones posibles del qubit. Los grupos de qubits en superposición pueden crear espacios computacionales complejos y multidimensionales. Los problemas complejos se pueden representar de nuevas formas en estos espacios.
Entrelazamiento El entrelazamiento es un efecto mecánico cuántico que correlaciona el comportamiento de dos cosas separadas. Cuando dos qubits están entrelazados, los cambios en un qubit impactan directamente en el otro. Los algoritmos cuánticos aprovechan esas relaciones para encontrar soluciones a problemas complejos.
Fuente: https://www.ibm.com/mx-es/topics/quantum-computing
0 notes
jesus231rg · 1 year ago
Text
Sexta generación de computadoras
Tumblr media
La sexta generación de computadoras será el siguiente paso en la evolución de las computadoras, a partir de la construcción de “redes neuronales” o “cerebros artificiales”, esto es, grandes sistemas descentralizados de procesamiento de información, de la mano de la inteligencia artificial y los superconductores. Se trata de una generación de computadoras por venir, de la cual apenas se pueden especular ciertas tendencias, por lo que su aparición plena se producirá en el futuro.
Las computadoras de la sexta generación sin duda alguna sacarán provecho a las tecnologías desarrolladas durante la quinta generación que se desarrolla en la actualidad, tales como el procesamiento paralelo, los sistemas expertos, la inteligencia artificial, entre otras. Es probable que esto traiga consigo nuevas e insospechadas capacidades para este tipo de herramientas, muchas de las cuales son de momento
Características de la sexta generación de computadoras
Resulta complicado vaticinar las características que podrán tener las computadoras de la sexta generación, dado que se trata de una tecnología aún por venir, de la cual apenas pueden intuirse sus derroteros. Sin embargo, es probable que estas computadoras puedan:
Procesar gigantescas cantidades de información de manera rápida y similar a cómo lo hacen los cerebros humanos.
Entender el lenguaje natural en su interacción con el usuario, reconociendo su voz y respondiéndole de manera acorde con una voz simulada.
Llevar a cabo labores heurísticas avanzadas (de probabilidad) o incluso creativas, combinando elementos de un modo enteramente original.
Diseñar sus propias mejoras tecnológicas a partir del conocimiento acumulado sobre sí mismas y de las ventajas de la inteligencia artificial.
Fuente: https://concepto.de/sexta-generacion-de-computadoras/#ixzz8BHKhI5CJ
0 notes
jesus231rg · 1 year ago
Text
Quinta Generación De Computadoras
Tumblr media
La quinta generación de computadoras es el conjunto de computadoras diseñadas a partir de 1981 y que representan el paso más reciente en la evolución de este tipo de tecnología. Sus primeros modelos se produjeron y comercializaron en Japón, y apuntaban al desarrollo de sistemas informáticos dotados de los tipos de arquitectura informática VLSI (del inglés Very Large Scale Integration, “integración a muy gran escala”) y ULSI (del inglés Ultra Large Scale Integration, “integración a escala ultra grande”).
Elementos que las distinguen
El rasgo distintivo de la quinta generación de computadoras tiene que ver con la miniaturización de los componentes del microprocesador y el procesamiento de grandes cantidades de datos. Esto las hace idóneas para ramas tecnológicas novedosas, como la nanotecnología, la robótica y la inteligencia artificial. Si bien dentro de esta generación se incluyen las laptop e incluso los smartphones, las más avanzadas computadoras de esta generación no se han destinado al consumo común todavía.
Características de una computadora de la quinta generación
Las computadoras de quinta generación se caracterizan por:
Tienen elementos de hardware miniaturizados, pero capaces de desarrollar una mayor velocidad de cómputo que cualquier generación previa.
Tienen diferentes procesadores integrados y un alto rendimiento en paralelo.
Responden a la voz humana y al lenguaje natural, a través de interfaces dotadas de inteligencia artificial, como los llamados “sistemas expertos”.
En muchos casos se trata de “supercomputadoras”, como Deep Blue, la supercomputadora de IBM que venció en el ajedrez al campeón del mundo, Garry Kasparov. En otros, de computadoras “cuánticas”.
Si bien se han logrado computadoras de este estilo hasta cierto punto, continúa siendo una generación en desarrollo y se estima que su masificación no está demasiado lejos en el futuro.
Fuente: https://concepto.de/quinta-generacion-de-computadoras/#ixzz8BHJgho9n
0 notes
jesus231rg · 1 year ago
Text
BIOGRAFÍA DE PETER DRUCKER Y SUS PRINCIPALES CONTRIBUCIONES
Tumblr media
Drucker es considerado el más acertado de los exponentes en temas de administración, sus ideas y modismos vienen influenciando el mundo corporativo desde los años 40. Drucker es el primer científico social que utiliza la expresión «post-modernidad». Peter Drucker es el pensador más influyente del mundo en el campo de la administración de empresas. La riqueza de sus pensamientos es producto de su personalidad.
Ha sido un colaborador asiduo de revistas como The Atlantic Monthly y fue columnista de The Wall Street Journal desde 1975 hasta 1995. Su primera labor como consultor fue en 1940. Desde entonces trabajó ampliamente en los Estados Unidos, Europa, América Latina y Asia, para grandes empresas, agencias gubernamentales y organizaciones sin fines de lucro.
Fue presidente honorario de la Peter F. Drucker foundation for Nonprofit Management. Después de enseñar en el Sarah Lawrence College de Nueva York desde 1939 hasta 1949, y en Bennington College de Vermont desde 1942 hasta 194. En 1971 fue nombrado profesor (Clarke) de ciencias sociales y administración en la escuela de graduados en administración de la universidad de Claremont.
Trabajó como periodista en Alemania, mezclando su actividad con la política desde el año 1920 hasta la caída de la República del Weimar. Doctor Honoris Causa de varias Universidades de EEUU, Bélgica, Japón, España, Suiza y Reino Unido. Sus conferencias son multitudinarias, detesta toda clase de halagos. Es llano, sencillo, visionario, mordaz y vital. Una vida larga y fecunda como trabajador del conocimiento.
Entre los años 1975 y 1995 fue editorialista del Wall Street Journal, además de colaborador de la Harvard Business Review.
Un hombre que reconoce que su perfil no es el de Economista, ni de ejecutivo, su mayor interés son las personas. En 1933 fue a Londres, trabajó en un Banco, y fue alumno de Maynard Keynes, anteriormente en Bonn fue discípulo de Joseph Schumpeter, hoy es la última persona que esta con vida y que tomo clases con estas dos grandes figuras. «Tanto Keynes como Schumpeter tienen muchísimo que enseñarnos, pero más en la forma que debemos pensar económicamente, que en relación con sus teorías específicas, como tesis económica el Keynesismo fallo donde fue aplicado, Schumpeter nunca tuvo una política económica, si fue válido el concepto de que el desequilibrio es el estado normal de la salud de la Economía.»
A los 31 años, empieza su vida como Consultor de Empresas Multinacionales en General Motors, es entonces que empieza a dar forma a la teoría del Management, tendencias de Gestión, la sociedad del conocimiento. » La mejor estructura no garantizará los resultados, ni el rendimiento. Pero la estructura equivocada es una garantía del fracaso» » No trates de innovar para el futuro, innova para el presente», son algunas de sus frases más divulgadas.
Considera que la práctica es base del management, esta disciplina atribuida a él, requiere de practica para poder ser aplicada.» Solo cuando una practica esta lo suficientemente madura, los académicos pueden realizar contribuciones de importancia, ya que sin práctica el académico no puede producir contribución al Management.
Ha publicado libros y artículos, todos ellos hoy son obras a las que se acude para la consulta de conceptos innovadores. En sus obras prima tanto lo científico, como lo humano, lo económico, lo histórico, el arte y lo filosófico.
En la década del 40, durante 7 años fue profesor de Filosofía y Política en el Bennington College. Profesor de Management en la Universidad de New York para graduados de la escuela de Negocios en los años 50, actualmente una escuela de negocios lleva su nombre y él la preside.
Al pensar, pone las verdades sobre una cuerda floja, haciendo las preguntas más obvias, correctas, que ayudan a pensar sin perjuicios, de visión pluridimensional y sintético, característica del autentico humanista.
Hoy perdura su asesoramiento a Empresas y a la nueva generación de jóvenes. Reconoce que en estos tiempos las viejas generaciones aprenden de las nuevas, y el humanismo sigue siendo el pilar de su discurso. Nuestras ideas se han visto trastocadas en sus conceptos gracias a la innovadora forma de pensar y analizar los temas empresarios por parte de Drucker.
Hombre con la virtud de leer entre líneas, sin embargo gracias a su rigor intelectual se lo diferencia en el grupo de pensadores futuristas, y su capacidad de interpretar el presente lo habilita para exponer sus conceptos. Las tendencias de los negocios en los últimos 50 años, han sido expuestas en sus obras, definiendo la sociedad del conocimiento como la base de la actual empresa y de la del futuro. Fue el primero en dar una definición clara de negocio. A los 90 y tantos disfrutaba de la natación en forma diaria, su premisa era mantenerse en forma, aunque usaba bastón, su ritmo al caminar era igual que el de cualquier persona.
Libros
En setenta años se han publicado más de treinta libros, que abarcan estudios de Dirección, estudios de políticas socio económicas y ensayos. Algunos fueron Best Sellers.
El final del hombre económico, Fue su primer libro. Publicado en 1939.
El futuro del hombre industrial, Fue su segundo libro. Publicado en 1942.
El concepto de Corporación, Publicado en 1946.
La práctica del Management. Da a conocer su teoría de la dirección por objetivos. El autogobierno de la comunidad de Empresas. Después de esta publicación aparecen numerosos libros de dirección. La única función de un negocio es crear valor para el cliente e innovar.
La era de la discontinuidad. Publicado en 1969. Introduce el concepto de trabajador del conocimiento. Innovación y espíritu emprendedor. Habla de una nueva disciplina que puede ser enseñada y aprendida, la innovación.
El Emprendedor. allí encuentra los mejores consejos.
El ejecutivo efectivo. Publicado en 1985. Se centra en la efectividad personal. Los cambios en la dirección del siglo XXI. Las fuerzas que guían estos cambios, son la base de esta publicación.
El Management del Futuro. Cuando todo el mundo hablaba de la nueva economía, él dice que era la sociedad la que cambiaba, y que cada vez lo hacia con más rapidez, la revolución informática resulta ser uno de esos cambios, cambios demográficos, caída de la industria como proveedora de riqueza y trabajo. El terrorismo ha cambiado de manera radical la política mundial. Los ejecutivos deben comprender las nuevas realidades, para poder ser exitosos en esta nueva sociedad.
La sociedad del futuro. Editado en el 2002. Refleja allí todo su humanismo. Actualmente vive en Claremont cerca de Los Angeles.
1 note · View note
jesus231rg · 1 year ago
Text
SOCIEDAD DEL CONOCIMIENTO
Tumblr media
Una sociedad del conocimiento es aquella sociedad que considera el conocimiento un elemento fundamental para el desarrollo y el progreso de la misma. Para ello, estas sociedades hacen que el acceso a la educación sea más sencillo.
Una sociedad del conocimiento, por tanto, es aquella sociedad que tiene como elemento fundamental para el desarrollo y el progreso, el conocimiento. Estas sociedades, por ello, hacen que el acceso a la educación y, por ende, al conocimiento, sea más sencillo que en otros países. El objetivo es promover la difusión del conocimiento, pudiendo trasladar este a todos los ámbitos de la sociedad. El fin que persiguen estas sociedades es que se utilice dicho conocimiento para fines que permitan un mayor desarrollo y progreso.
Así pues, estas sociedades buscan una sociedad educada, racional, avanzada, comprometida y organizada. Por ello, en estas sociedades se busca potenciar todas aquellas tareas que permitan una mejora en la identificación, la transferencia, así como el cuidado del conocimiento.
El concepto fue utilizado por primera vez por el profesor Peter Drucker. Todo ello, tras el desarrollo de las tecnologías de la información y las comunicaciones (TICs) .
Características de la sociedad del conocimiento
Entre las características que definen una sociedad del conocimiento, cabría resaltar las siguientes:
Son sociedades que consideran el conocimiento como un elemento fundamental para el desarrollo y el progreso.
Para ello, hacen el acceso a la educación y el conocimiento más accesible.
De esta forma, potencia todas las tareas que tengan que ver con la identificación, la transferencia y el cuidado y la mejora del conocimiento.
Para potenciar esto, estas sociedades hacen un uso de las tecnologías de la información y la comunicación como herramienta para la transferencia del conocimiento.
Son sociedades que consideran el conocimiento un elemento fundamental para una mejora de la economía. 
Origen del término
Se dice que el origen del término se debe al profesor de negocios Peter Drucker. Este profesor, eminencia en el estudio de la gestión empresarial y la administración, fue el autor de dicho concepto, tras haber acuñado previamente otros conceptos similares como “trabajador del conocimiento”.
Tras su publicación, en la década de 1990, muchos otros autores profundizaron en este asunto con nuevos estudios.
Ventajas y desventajas de las sociedades del conocimiento
Aunque dicha sociedad presente más ventajas que inconvenientes, cabe resaltar las dos caras de la moneda para valorar dicho concepto objetivamente.
Por ello, a continuación, se exponen las principales ventajas e inconvenientes de las sociedades del conocimiento.
Entre esas ventajas, conviene destacar:
Son sociedades que presentan una mayor tasa de alfabetización.
Promueve la igualdad de oportunidades.
Son sociedades más racionales y menos emocionales.
Promueven un consumo y un desarrollo más ético.
Tienden a presentar una oferta con un mayor valor añadido.
La innovación y la mejora continua son herramientas que promueven un mayor desarrollo. 
Consideran la inversión en conocimiento un elemento fundamental para que esta sociedad sea posible, por lo que se promueve verdaderamente el desarrollo. 
Entre esos inconvenientes, conviene resaltar:
Suelen ser sociedades más frías y calculadoras.
La diversidad de ideas, igual que promueve el debate, también promueve la fragmentación social.
¿Qué es conocimiento y qué no lo es?
La disputa suele generar tensiones en la población. 
Es complicado coordinar los equipos humanos de investigación.
Diferencias entre sociedad del conocimiento y sociedad de la información
Estos dos conceptos, en la práctica, pueden parecer similares. Sin embargo, presentan diferencias que conviene resaltar.
Entre esas ventajas, destaca una que muestra, esencialmente, la diferencia entre la sociedad de la información y la sociedad del conocimiento.
Mientras que el conocimiento puede ser una información, no toda la información que se transmite es conocimiento. La información falsa, las “fake news”, así como otra serie de fenómenos hacen que estas sociedades no representen lo mismo.
Ejemplos de sociedades del conocimiento
El mejor ejemplo de lo que podría considerarse la mayor sociedad del conocimiento del mundo es internet. 
A través de internet, una sociedad interactúa para transferir el conocimiento entre unos y otros. 
0 notes
jesus231rg · 1 year ago
Text
SOCIEDAD DE LA INFORMACIÓN
Tumblr media
“Sociedad de la información” es un término que se usa para definir una nueva manera en que las comunidades organizan su sociedad y su economía.
Esta expresión se usa desde la década de 1960 y ha adquirido diversos significados. A grandes rasgos, se la puede definir como un estadío en el cual el desarrollo de la sociedad está orientado hacia la obtención y difusión de cualquier tipo de información de forma instantánea.
Para que esta sociedad sea posible, los diferentes elementos que la integran (desde los recursos humanos hasta las compañías e incluso las diferentes dependencias del Estado) cuentan con capacidades que fomentan el desarrollo de la información.
Así, dentro de estas sociedades, es mayor el número de individuos que se vincula con tareas relacionadas a la información, mientras que la proporción que se dedica a trabajos que requieran capacidades físicas es mucho menor.
Características de la sociedad de la información
Existen numerosos rasgos que caracterizan a la sociedad de la información. Algunos de ellos son:
Exuberancia. La sociedad se desenvuelve en un hábitat en el cual los grandes volúmenes de información (frases, datos e imágenes) forman parte constante del mismo.
Globalización. Este intercambio constante desde y hacia cualquier punto del globo trae como consecuencia la conformación de una sociedad globalizada. Esto significa que se generan vínculos e intercambios comerciales, culturales, políticos, entre otros, que traspasan las fronteras nacionales.
Centralidad. En estas comunidades, sus individuos reciben y envían información desde y hacia todas partes del planeta. Obviamente, existen ciertos países o regiones económicas que se destacan por producir y difundir un mayor volumen de información que el resto.
La tecnología como epicentro. Para el desarrollo de estas sociedades, la evolución de diversos dispositivos tecnológicos que permiten la difusión de la información es clave.
Instantaneidad. La velocidad con la que se transmiten los datos e información es muy elevada, instantánea, además de que esta difusión requiere de muy pocos costos y se puede hacer de manera simultánea.
Sin barreras. El tiempo y el espacio no son un obstáculo para la difusión de la información.
Desventajas de la sociedad de la información
Homogeneización. Las sociedades tienden hacia una homogeneidad por entrar en constante contacto con otros bienes, servicios y culturas, lo que puede generar la pérdida de sus tradiciones y la adopción de otras lejanas.
Desempleo y precarización. Con los avances tecnológicos, muchas tareas que antes hacían las personas fueron automatizadas y reemplazadas por la tecnología. Esto destruye fuentes de empleo, genera desempleo y, como consecuencia, se presta a que exista mayor precariedad dentro de las ofertas laborales (salarios bajos, trabajo informal y pérdida de beneficios laborales).
Pérdida de la intimidad. Sobre todo con el surgimiento de las redes sociales, el terreno de la intimidad se reduce a su mínima expresión.
Concentración económica. La globalización también acarrea una concentración del control y del manejo de la economía, y por tanto, una desigualdad que se observa a nivel mundial.
Ventajas de la sociedad de la información
Eficiencia. Gracias al mayor caudal de datos y de información, la producción se vuelve mucho más eficiente. Se produce más y por menos costo.
Acceso a bienes. La información se volvió un producto al que pueden acceder los miembros de cualquier comunidad para sacarle provecho.
Democracia. El hecho de que el acceso a la información y sea sencillo y económico democratiza el acceso al conocimiento y dota de nuevas herramientas a las personas.
Comunicación. La sociedad de la información facilita y agiliza la comunicación desde diversas partes del mundo.
Sociedad informada. Que una sociedad pueda acceder con mayor facilidad a la información le otorga mayor libertad a la hora de tomar decisiones.
¿Por qué es tan importante?
El surgimiento de la sociedad de la información resulta determinante en varios aspectos. Uno de ellos tiene que ver con que vuelve más igualitario el acceso al conocimiento. Así, se debilita el poder de quienes concentran el monopolio del conocimiento (como ocurrió en su momento con la imprenta).
Este avance habilita entonces la posibilidad de que los individuos, más allá de la clase social a la que pertenecen, puedan dar un salto y ocupar ciertos espacios dentro del entramado social, que antes quedaba en manos de aquel monopolio.
Acceder a la información se vuelve mucho más económico y, al mismo tiempo, no existen las barreras espaciales sino que cualquier individuo con un dispositivo tecnológico puede acceder a conocimientos que antes se encontraban limitados, por ejemplo, a quienes podían acceder a una biblioteca.
Origen de la sociedad de la información
El economista estadounidense Fritz Machlup fue quien acuñó el concepto “sociedad del conocimiento” en los años 60. Esta concepción surge a raíz de las transformaciones sociales y económicas que comenzaban a darse por aquellos años a raíz de los avances tecnológicos.
Por aquel entonces, la sociedad industrial comenzaba a avanzar hacia un nuevo modelo en el que todos aquellos conocimientos y controles aplicados en los procesos industriales comenzaban a migrar hacia el manejo y procesamiento de los datos e información.
De esta forma, los individuos comenzaron a tener acceso a aquellos bienes que ellos mismos y su entorno producían mientras que estas barreras comenzaban a traspasarse. Si bien en los comienzos del siglo XIX esto se veía en productos materiales, con el avance de la tecnología, se trasladó a la información y al conocimiento (siempre gracias a los avances tecnológicos).
El aumento de la circulación de la información trajo impacto en diversas áreas como por ejemplo:
En la economía. Modifica el vínculo entre las compañías a nivel mundial y mejora su productividad.
En la vida personal. Promueve en el acceso al conocimiento, servicios y a la hora de interactuar con otros.
En las organizaciones sociales. Las estructuras se vuelven más horizontales y flexibles, además de facilitar el feedback. Además, los vínculos se vuelven mucho más amplios: no hay barreras físicas ni temporales y el conocimiento es más económico.
0 notes
jesus231rg · 1 year ago
Text
ERAS ECONOMICAS DE LA CIVILIZACION
Tumblr media
Etapa 1 Caza
La economía es tan antigua como la propia humanidad. Hace cinco mil años, cuando dos pastores intercambiaban una cabra por cinco gallinas, estaban haciendo economía. Desde entonces se han sucedido, uno tras otro, diferentes sistemas económicos.
Cada sistema económico, se ha visto precedido de un cambio en la filosofía de la sociedad, además, dicho sistema ha respondido a una serie de necesidades e inquietudes propias de la época en la que fue creado.
Etapa 2 Agricultura
En el principio toda la actividad económica estaba circunscrita a la agricultura, la pesca y el pastoreo.
Con las culturas egipcia, griega y romana, en ese orden, el sistema esclavista constituyó la base de la economía. La principal riqueza provenía del trabajo de los esclavos en la agricultura. La guerra también se consideraba, según algunos filósofos griegos, una fuente de riqueza, debido al aprovisionamiento de esclavos y la mano de obra barata que se obtenía tras las conquistas.
Con el derrumbamiento del imperio romano se produjo una gran vertebración de la actividad económica. Cada señor feudal protegía a un número determinado de vasallos que trabajaban las tierras. A cambio de la protección, les entregaban una cantidad anual de su cosecha al señor y a la iglesia.
Etapa 3 Industrialización
A finales de la época feudal comenzó a surgir una nueva forma de producción de riqueza, diferente a todo lo conocido hasta entonces (agricultura, ganadería, pesca y conquista) y basada en la aportación de un cierto valor añadido a las mercancías. Hablamos del gremio de artesanos, precursores de las fábricas. En esta etapa los ricos debían purgar su condición de privilegio mediante la entrega de limosna (caridad) y el cobro de intereses se consideraba una blasfemia.
El sistema mercantilista
Conforme los tiempos avanzaron y las hordas invasoras redujeron su flujo, las ciudades comenzaron a crecer fuera de las murallas, y comenzó la difusión de la moneda, la letra de cambio y los pagarés. Con ello, el ser rico no estaba mal visto ya que si el trabajo dignifica, la riqueza, como producto del trabajo, era igualmente digna. Surge una nueva clase social entre los campesinos, la nobleza y el clero: la burguesía, aupada por el comercio.
Fábricas, sindicatos, producción en cadenas, partes intercambiables, internet... Con la llegada del capitalismo la riqueza dejó de ser un medio para acercarse a dios y se convirtió en un fin en sí mismo. Enriquecerse era la meta de la versión económica de la evolución de Darwin: los más listos era los que se enriquecían. El capitalismo se basó, en sus inicios, en la falsa creencia de que las materias primas eran ilimitadas. La falsedad de esta premisa se puso de manifiesto con la crisis del petróleo de 1973. Lógicamente, las materias primas parecían ilimitadas cuando la Tierra tenía 100 millones de habitantes, pero con más de 6.000 la cosa cambiaba.
Etapa 4 Información / trabajador del conocimiento
Una visión de futuro: lo que está por venir
Si bien el capitalismo estaba basado, entre otras cosas, en el individualismo y la idea de que los recursos son ilimitados, el próximo sistema económico, debería basarse en todo lo contrario (cooperación y reciclaje). Puesto que los recursos se han demostrado escasos, se debería optimizar su uso. Puesto que cada vez hay más población en el planeta, si queremos trabajar todos habría que reducir los horarios y procurar que el valor añadido aportado por cada trabajador fuera enorme. Un ingeniero diseñaría algo, otro optimizaría su diseño y un tercero lo construiría de un modo más eficiente. De modo que al final, el producto acabado hubiera sido construído de la forma más económica y aprovechando al máximo los recursos disponibles.
1 note · View note