lunes

EL TECNOPROGRESIVISMO

EL TECNOPROGRESIVISMO







El tecnoprogresismo o tecno-progresismo es una postura ideológica que preconiza un apoyo activo a la convergencia del cambio tecnológico y el progreso social. El tecnoprogresivismo argumenta que los desarrollos tecnológicos pueden ser profoundamente empoderadores y emancipatorios cuando son regulados o dirigidos por instancias legítimamente democráticas o de participación activa para el aseguramiento de que sus costos, riesgos y beneficios sean justamente distribuidos en la sociedad.

BITs

BITs

Es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario. el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).


















Combinaciones de bits


Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:
0 0 - Los dos están "apagados"
0 1 - El primero (de derecha a izquierda) está "encendido" y el segundo "apagado"
1 0 - El primero (de derecha a izquierda) está "apagado" y el segundo "encendido"
1 1 - Los dos están "encendidos"
Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores rojo, verde, azul y negro.
A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con un número de bits pueden representarse hasta 2n valores diferentes.
Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.


Valor de posición
En cualquier sistema de numeración posicional, el valor de los dígitos depende del lugar en el que se encuentren.
En el sistema decimal, por ejemplo, el dígito 5 puede valer 5 si está en la posición de las unidades, pero vale 50 si está en la posición de las decenas, y 500 si está en la posición de las centenas. Generalizando, cada vez que nos movemos una posición hacia la izquierda el dígito vale 10 veces más, y cada vez que nos movemos una posición hacia la derecha, vale 10 veces menos. Esto también es aplicable a números con decimales.

+---------+---------+---------+
Centena Decena Unidad
+---------+---------+---------+
x 100 x 10 x 1
+---------+---------+---------+
Por tanto, el número 153 en realidad es: 1 centena + 5 decenas + 3 unidades, es decir,
100 + 50 + 3 = 153.
En el sistema binario es similar, excepto que cada vez que un dígito binario (bit) se desplaza una posición hacia la izquierda vale el doble (2 veces más), y cada vez que se mueve hacia la derecha, vale la mitad (2 veces menos).

+----+----+----+----+----+ Valor del bit
16 8 4 2 1 <-- de acuerdo a +----+----+----+----+----+ su posición

Little endian y Big endian
En los computadores cada byte se identifica con su posición en la memoria (dirección). Cuando se manejan números de más de un byte, éstos también deben estar ordenados. Este aspecto es particularmente importante en la programación en código máquina, ya que algunas máquinas consideran el byte situado en la dirección más baja el menos significativo (a little endian, como los procesadores Intel) mientras que otras consideran que ése es el más significativo (arquitectura big endian, como los procesadores Motorola). De este modo, un byte con el número decimal 27 se almacenaría en una máquina little endian igual que en una máquina big endian, ya que sólo ocupa un byte. Sin embargo, para números más grandes los bytes que los representan se almacenarían en distinto orden en cada arquitectura.
Por ejemplo, consideremos el número hexadecimal entero AABBCCDD, de 32 bits (4 bytes), localizado en la dirección 100 de la memoria. El número ocuparía las posiciones desde la 100 a la 103, pero dependiendo de si la máquina es little o big endian, los bytes se almacenarían de diferente manera:


Little-endian (Como Intel)
100
101
102
103
...
DD
CC
BB
AA
...
Big-endian (Como Motorola)
100
101
102
103
...
AA
BB
CC
DD
...
En las imágenes de arriba, en donde se representan las posiciones de memoria 100, 101, 102 y 103 creciendo de izquierda a derecha, parece que la representación big endian es más natural, ya que el número AABBCCDD lo podemos leer correctamente (ver figura), mientras que en la representación little endian parece que el número está al revés, o «patas arriba». Sin embargo, no hay nada que nos impida imaginar que las direcciones de memoria «crecen» de derecha a izquierda, y al observar la memoria de esta manera, la representación little endian se ve natural» y es la big endian la que parece al revés, como se muestra en las figuras de abajo.


Little-endian
103
102
101
100
...
AA
BB
CC
DD
...
Big-endian
103
102
101
100
...
DD
CC
BB
AA
...

Un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es la unidad más pequeña de información que utiliza un ordenador. Son necesarios 8 bits para crear un byte.
La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.
El funcionamiento es el siguiente: El circuito electrónico en los ordenadores detecta la diferencia entre dos estados (corriente alta y corriente baja) y representa esos dos estados como uno de dos números, 1 o 0. Estos básicos, alta/baja, ambos/o, si/no unidades de información se llaman bits.

BIOÉTICA

BIOÉTICA


La bioética es la rama de la ética que aspira a proveer los principios de conducta humana de la vida"; la ética está aplicada a la vida humana y no humana.

En un sentido más amplio, sin embargo, la Bioética no se limita al ámbito médico, sino que incluye todos los problemas morales que tienen que ver con la vida en general, extendiendo de esta manera su campo a cuestiones relacionadas con el medio ambiente y al trato debido a los animales.

La bioética es una disciplina relativamente nueva y el origen del término corresponde al oncólogo norteamericano Van Rensselaer Potter, quien utilizó el término por primera vez en 1970 en un artículo publicado en la revista de la Universidad de Wisconsin "Perspectives in Biology and Medicine" y cuyo título ostentaba por primera vez dicho término: "Bioética: la ciencia de la supervivencia". Posteriormente, el año 1971, Potter publica un libro con el título de "Bioética: Puente hacia el futuro" ("Bioethics: Bridge to the future") en el cual se recogen varios de sus artículos.















Definición y dominio

La bioética abarca las cuestiones éticas acerca de la vida que surgen en las relaciones entre biología, nutricion, medicina, política, derecho, filosofía, sociología, antropología, teología,... Existe un desacuerdo acerca del dominio apropiado para la aplicación de la ética en temas biológicos. Algunos bioéticos tienden a reducir el ámbito de la ética a la moralidad en tratamientos médicos o en la innovación tecnológica. Otros, sin embargo, opinan que la ética debe incluir la moralidad de todas las acciones que puedan ayudar o dañar organismos capaces de sentir miedo y dolor.

El criterio ético fundamental que regula esta disciplina es el respeto al ser humano, a sus derechos inalienables, a su bien verdadero e integral: la dignidad de la persona.

Por la íntima relación que existe entre la bioética y la antropología, la visión que de ésta se tenga condiciona y fundamenta la solución ética de cada intervención técnica sobre el ser humano.

La bioética es con frecuencia material de discusión política, resultando en crudos enfrentamientos entre aquellos que defienden el progreso tecnológico en forma incondicionada y aquellos que consideran que la tecnología no es un fin en sí, sino que debe estar al servicio de las personas.

Las primeras declaraciones de bioética surgen con posterioridad a la Segunda Guerra Mundial, cuando el mundo se escandaliza con el descubrimiento de los experimentos médicos llevados a cabo por los facultativos del régimen hitleriano sobre los prisioneros en los campos de concentración. Esta situación, a la que se suma el dilema planteado por el invento de la fístula para diálisis renal de Scribner (Seattle, 1960), las prácticas del Hospital Judío de Enfermedades Crónicas (Brooklyn, 1963) o la Escuela de Willowbrook (Nueva York, 1963), van configurando un panorama donde se hace necesaria la regulación, o al menos, la declaración de principios a favor de las víctimas de estos experimentos. Ello determina la publicación de diversas declaraciones y documentos bioéticos a nivel mundial.

Principios fundamentales de la bioética

En 1979, los bioeticistas Beauchamp, T.L y Childress, J.F,[1] definieron como cuatro los principios de la Bioética: autonomía, no maleficencia, beneficencia y justicia. En un primer momento definieron que estos principios son prima facie, esto es, que vinculan siempre que no colisionen entre ellos, en cuyo caso habrá que dar prioridad a uno u otro dependiendo del caso. Sin embargo en 2003, Beauchamp[2] considera que los principios deben ser especificados para aplicarlos a los análisis de los casos concretos, o sea, deben ser discutidos y determinados por el caso concreto a nivel casuístico.
Los cuatro principios definidos por Beauchamp y Childress son:

Principio de autonomía

El principio de autonomía tiene un carácter imperativo y debe respetarse como norma, excepto cuando se dan situaciones en que las personas puedan ser no autónomas o presenten una autonomía disminuida (menores de edad, personas en estado vegetativo o con daño cerebral, etc.) siendo necesario en tal caso justificar por qué no existe autonomía o por qué ésta se encuentra disminuida. En el ámbito médico, el consentimiento informado es la máxima expresión de este principio de autonomía, constituyendo un derecho del paciente y un deber del médico, pues las preferencias y los valores del enfermo son primordiales desde el punto de vista ético y supone que el objetivo del médico es respetar esta autonomía porque se trata de la salud del paciente.

Principio de beneficencia

Obligación de actuar en beneficio de otros, promoviendo sus legítimos intereses y suprimiendo perjuicios. En medicina, promueve el mejor interés del paciente pero sin tener en cuenta la opinión de éste. Supone que el médico posee una formación y conocimientos de los que el paciente carece, por lo que aquél sabe (y por tanto, decide) lo más conveniente para éste. Es decir "todo para el paciente pero sin contar con él".

Un primer obstáculo al analizar este principio es que desestima la opinión del paciente, primer involucrado y afectado por la situación, prescindiendo de su opinión debido a su falta de conocimientos médicos. Sin embargo, las preferencias individuales de médicos y de pacientes pueden discrepar respecto a qué es perjuicio y qué es beneficio. Por ello es difícil defender la primacía de este principio, pues si se toman decisiones médicas desde éste, se dejan de lado otros principios válidos como la autonomía o la justicia.

Principio de no maleficencia (Primum non nocere)

Abstenerse intencionadamente de realizar acciones que puedan causar daño o perjudicar a otros. Es un imperativo ético válido para todos, no sólo en el ámbito biomédico sino en todos los sectores de la vida humana. En medicina, sin embargo, este principio debe encontrar una interpretación adecuada pues a veces las actuaciones médicas dañan para obtener un bien. Entonces, de lo que se trata es de no perjudicar innecesariamente a otros. El análisis de este principio va de la mano con el de beneficencia, para que prevalezca el beneficio sobre el perjuicio.

Las implicaciones médicas del principio de no maleficencia son varias: tener una formación teórica y práctica rigurosa y actualizada permanentemente para dedicarse al ejercicio profesional, investigar sobre tratamientos, procedimientos o terapias nuevas, para mejorar los ya existentes en vistas a que sean menos dolorosos y lesivos para los pacientes; avanzar en el tratamiento del dolor; evitar la medicina defensiva y con ello, la multiplicación de procedimientos y/o tratamientos innecesarios.

Principio de justicia

Tratar a cada uno como corresponda con la finalidad de disminuir las situaciones de desigualdad (ideológica, social, cultural, económica, etc.) En nuestra sociedad, aunque en el ámbito sanitario la igualdad entre todos los hombres es sólo una aspiración, se pretende que todos sean menos desiguales, por lo que se impone la obligación de tratar igual a los iguales y desigual a los desiguales para disminuir las situaciones de desigualdad.

El principio de justicia lo podemos desdoblar en dos: un principio formal (tratar igual a los iguales y desigual a los desiguales) y un principio material (determinar las características relevantes para la distribución de los recursos sanitarios: necesidades personales, mérito, capacidad económica, esfuerzo personal, etc.)
Las políticas públicas se diseñan de acuerdo a ciertos principios materiales de justicia. En España por ejemplo, la asistencia sanitaria es teóricamente universal y gratuita, por tanto basada en el principio de la necesidad. En cambio, en Estados Unidos la mayoría de la asistencia sanitaria de la población está basada en los seguros individuales contratados con compañías privadas de asistencia médica.

Para excluir cualquier tipo de arbitrariedad es necesario determinar qué igualdades o desigualdades se van a tener en cuenta para determinar el tratamiento que se va a dar a cada uno. El enfermo espera que el médico haga todo lo posible en beneficio de su salud. Pero también debe saber que las actuaciones médicas están limitadas por una situación impuesta al médico, como intereses legítimos de terceros.
La relación médico-paciente se basa fundamentalmente en los principios de beneficencia y de autonomía, pero cuando estos principios entran en conflicto, a menudo por la escasez de recursos, es el principio de justicia el que entra en juego para mediar entre ellos. En cambio, la política sanitaria se basa en el principio de justicia, y será tanto más justa en cuanto que consiga una mayor igualdad de oportunidades para compensar las desigualdades.























Ámbitos de la Bioética

Problemas éticos derivados de las profesiones sanitarias: transfusiones de sangre,eutanasia, trasplantes de órganos, reproducción asistida o mediante fertilización in Vitro, aborto, todos los asuntos implicados en la relación médico-paciente.

Problemas de la investigación científica, en particular la investigación biomédica, que tanto pueden transformar al hombre: manipulación genética, tecnologías reproductivas como la clonación, etc.
Los problemas ecológicos, del medio ambiente y la biosfera: necesidad de conservación del medio ambiente, como mantener el equilibrio entre las especies y el respeto hacia los animales y la naturaleza, impedir el uso de energía nuclear, controlar el crecimiento de la población mundial y el incremento del hambre en los países pobres, etc.

Influencia social y política de las cuestiones anteriores, en cuanto a legislación, educación, políticas sanitarias, etc

División de la bioética

Podemos dividir la bioética en una parte general o fundamental y una parte especial o aplicada. La bioética general se ocupa de los fundamentos éticos, de los valores y principios que deben dirigir el juicio ético y de las fuentes documentales de la bioética (códigos médicos, derecho nacional e internacional, normas deontológicas y otras fuentes que enriquecen e iluminan la discusión, como las biográficas, literarias o religiosas). La bioética especial se ocupa de dilemas específicos, tanto del terreno médico y biomédico como referentes al ámbito político y social: modelos de asistencia sanitaria y distribución de recursos, la relación entre el profesional de la salud y el enfermo, prácticas de medicina prenatal, el aborto, la ingeniería genética, eugenesia, eutanasia, trasplantes, experimentos con seres humanos, etc.

Es claro que el enfoque que se dé a la fundamentación (bioética general) condicionará las posibles soluciones que se ofrezcan a los dilemas (bioética especial). Así ocurre con el rechazo de la eutanasia en un modelo bioético basado en la búsqueda de la verdad sobre el hombre y en el reconocimiento y respeto de su especial dignidad, o –por el contrario- la entusiasta aceptación de la eutanasia en los modelos relativistas basados en la autonomía absoluta de la libertad individual.

En ocasiones se habla de bioética clínica o toma de decisiones. En ella se examinan dilemas nacidos en el ejercicio asistencial de la medicina, analizándose los valores éticos en juego y los medios concretos disponibles para resolver el conflicto de la mejor manera. Si bien el caso particular presenta matices a considerar y priorizar, la conducta no debería entrar en contradicción con los valores utilizados en la bioética en general.

BIOPOLÍTICA

BIOPOLÍTICA



Biopolítica es un neologismo acuñado por el filósofo francés Michel Foucault, que se refiere a conceptos distintos, pero no del todo incompatibles.conjunto de saberes, técnicas y tecnologías que convierten la capacidad biológica de los seres humanos en el medio por el cual el Estado alcanza sus objetivos. Es decir, desde el inicio de la edad contemporánea el Estado y los elementos económicos que le apoyan, se esfuerzan por potenciar las capacidades físicas e intelectuales que consideran valiosas, ya que éstas constituyen el instrumento gracias al cual los agentes lograrán sus propósitos.





Puede pensarse que la definición con lleva cierta antiguedad, puesto que todos los grupos que han disfrutado de poder en el pasado han usado las capacidades humanas para sus objetivos. Sin embargo, los Estados preindustriales gestionaban unos hechos que consideraban naturales, como el número de habitantes de un territorio y su estado de salud; si acaso, estimulaban su reproducción con medidas fiscales o reconociendo la contribución de las familias numerosas al bien de la comunidad. En cambio, una época industrial y postindustrial (es decir, aquella donde la industria ha dejado de ser la fuente principal de generación de riqueza y puestos de trabajo, porque esta función recae en el sector terciario, los servicios o cuaternario y la investigación científica y tecnológica) parte de realidades creadas y desarrolladas por los mismos Estados. Frente a unos seres humanos dejados a las fuerzas del azar y el medio ambiente, en la era biopolítica encontramos una biología distinta, disciplinada y sometida a las capacidades de las autoridades para intervenir a favor o en contra de la expansión de los sujetos.

NEURONAS

NEURONAS



Las neuronas son un tipo de células del sistema nervioso cuya principal característica es la excitabilidad de su membrana plasmática; están especializadas en la recepción de estímulos y conducción del impulso nervioso entre ellas o con otros tipos celulares, como por ejemplo las fibras musculares de la placa motora. Altamente diferenciadas, la mayoría de las neuronas no se dividen una vez alcanzada su madurez; no obstante, una minoría sí lo hace. Las neuronas presentan unas características morfológicas típicas que sustentan sus funciones: un cuerpo celular, central; una o varias prolongaciones cortas que generalmente transmiten impulsos hacia el soma celular, denominadas dendritas; y una prolongación larga, denominada axón que conduce los impulsos desde el soma hacia otra neurona u órgano diana.La neurogénesis en seres adultos, ha sido descubierta apenas en el último tercio del siglo XX. Hasta hace pocas décadas se creía que, a diferencia de la mayoría de las otras células del organismo, las neuronas normales en el individuo maduro no se regeneraban, excepto las células olfatorias. Los nervios mielinados del sistema nervioso periférico también tienen la posibilidad de regenerarse a través de la utilización del neurolema, una capa formada de los núcleos de las células de Schwann.


Una neurona típica tiene todas las partes que cualquier otra célula pueda tener, y unas pocas estructuras especializadas que la diferencian. La principal parte de la célula es llamado soma o cuerpo celular. Contiene el núcleo , el cual contiene el material genético en forma de cromosomas.


Las neuronas tienen un gran número de extensiones llamadas dendritas . A menudo parecen como ramas o puntos extendiéndose fuera del cuerpo celular. Las superficies de las dendritas son principalmente lugar donde se reciben los mensajes químicos de otras neuronas.


Hay una extensión que es diferente de todas las demás, y se llama axón . A pesar de que en algunas neuronas es difícil distinguirlo de las dendritas, en otras es fácilmente distinguible por su longitud. La función del axón es transmitir una señal electroquímica a otras neuronas, algunas veces a una distancia considerable. En las neuronas que componen los nervios que van desde la medula espinal hasta tus pies, ¡los axones pueden medir hasta casi 1 metro!


Los axones más largos están a menudo recubiertos con una capa de mielina, una serie de células grasas que envuelven al axón muchas veces. Eso hace al axón parecer como un collar de granos en forma de salchicha. Sirven para una función similar a la del aislamiento de los cables eléctricos.
Al final del axón está la terminación del axón , que recibe una variedad de nombres como terminación, botón sináptico, pié del axón , y otros (!No se por que nadie ha establecido un término consistente!). Es allí donde la señal electroquímica que ha recorrido la longitud del axón se convierte en un mensaje químico que viaja hasta la siguiente neurona. Entre la terminación del axón y la dendrita de la siguiente neurona hay un pequeño salto llamado sinapsis (o salto sináptico, o grieta sináptica), sobre la cual discutiremos un poco. Para cada neurona, hay entre 1000 y 10.000 sinapsis.


El potencial de acción
Cuando las sustancias químicas hacen contacto con la superficie de la neurona, estas cambian el balance de iones (átomos cargados electrónicamente) entre el interior y el exterior de la membrana celular. Cuando este cambio alcanza un nivel umbral, este efecto se expande a través de la membrana de la célula hasta el axón. Cuando alcanza al axón, se inicia un potencial de acción.





















La superficie del axón contiene cientos de miles de minúsculos mecanismos llamados bombas de sodio . Cuando la carga entra en el axón, las bombas de sodio a la base del axón hacen que los átomos de sodio entren en el axón, cambiando el balance eléctrico entre dentro y fuera. Esto causa que la siguiente bomba de sodio haga los mismo, mientras que las anteriores bombas retornan el sodio hacia fuera, y así en todo el recorrido hacia abajo del axón.
¡El potencial de acción viaja a una media de entre 2 y 400 kilómetros por hora!


























La sinapsis



Cuando el potencial de acción alcanza la terminación del axón, causa que diminutas burbujas químicas llamadas vesículas descarguen su contenido en el salto sináptico. Esas sustancias químicas son llamadas neurotransmisores . Estos navegan a través del salto sináptico hasta la siguiente neurona, donde encuentran sitios especiales en la membrana celular de la siguiente neurona llamados receptores .

















El neurotransmisor actúa como una pequeña llave, y el lugar receptor como una pequeña cerradura. Cuando se encuentran, abren un camino de paso para los iones, los cuales cambian el balance de iones fuera y dentro de la siguiente neurona. Y el proceso completo comienza de nuevo.
Mientras que la mayoría de los neurotransmisores son excitatorios – p. Ej. Excitan la siguiente neurona – también hay neurotransmisores inhibitorios. Estos hacen más difícil para los neurotransmisores excitatorios tener su efecto.




Tipos de Neuronas


Aunque hay muchos tipos diferentes de neuronas, hay tres grandes categorías basadas en su función:


1. Las neuronas sensoriales son sensibles a varios estímulos no neurales. Hay neuronas sensoriales en la piel, los músculos, articulaciones, y órganos internos que indican presión, temperatura, y dolor. Hay neuronas más especializadas en la nariz y la lengua que son sensibles a las formas moleculares que percibimos como sabores y olores. Las neuronas en el oído interno nos proveen de información acerca del sonido, y los conos y bastones de la retina nos permiten ver.


2. Las neuronas motoras son capaces de estimular las células musculares a través del cuerpo, incluyendo los músculos del corazón, diafragma, intestinos, vejiga, y glándulas.


3. Las interneuronas son las neuronas que proporcionan conexiones entre las neuronas sensoriales y las neuronas motoras, al igual que entre ellas mismas. Las neuronas del sistema nervioso central, incluyendo al cerebro, son todas interneuronas.


La mayoría de las neuronas están reunidas en “paquetes” de un tipo u otro, a menudo visible a simple vista. Un grupo de cuerpos celulares de neuronas, por ejemplo, es llamado un ganglio o un núcleo. Una fibra hecha de muchos axones se llama un nervio . En el cerebro y la médula espinal, las áreas que están compuestas en su mayoría por axones se llaman materia blanca , y es posible diferenciar vías o tractos de esos axones. Las áreas que incluyen un gran número de cuerpos celulares se llaman materia gris .
INTEGRANTES
LUISA FERNANANDA MARIN
DUVAN ALEJANDRO RAIGOZA
JUAN SEBASTIAN PORTILLA
CIBERGRAFÍA

CONCLUSION

no conocia demasiado sobre el tema, por lo que casi se podria decir que eh empezado desde cero. he ido descubriendo muchisimas cosas en el camino y cambiando mi idea de como tenia que ser el trabajo. me pensaba, que tendria poco, consistencia, pero ha estado mas fascinante de lo que imaginaba, y cada detalle puede ser una nueva pregunta que puede desencadenar en otra.

Es dificil, pero entretenido e incluso divertido investigar y formularse nuevas preguntas a partir de los nuevos conocimientos adquiridos, creo que asi adelantada la ciencia y me ha gustado mucho la idea de poder hacer un trabajo de busqueda, por el echo que enseña , aunque solo sea algo, a aprender investigando, y asi poder conocer el placer de aprender mas y mas cosas por uno mismo.

http://es.wikipedia.org/wiki/Nanotecnolog%c3%ADa

http://www.monsato.es/la-biotecnolog/por-qe-es-importante-la-biotecnolog/por-qu-es-importante-la-boitecnolog

http://es.wikipedia.org/wiki/biotecnolog%c3%ADa

http://www.elmundo.es/especiales/2003/03/sociedad/hacia_la_igualdad/noticias/2001/03noticia1984.html

http://elproyectomatriz.wordpress.com/2008/02/04microchips-en-humanos-una-realidad/

http://www.noticiacristiana.com/cinecia_tecnologia/2006/12/compania-aconseja-a-bush-implantar-chips-a-imigrantes-para-mantenerlos-controlados.html

http://www.prisionplanet.com/articles/april2004/040704bajabeachclub.html

http://divulgamat.ehu.es/weborriak/Cultura/Paginas/01112006.asp

http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica

http://www.monografias.com/trabajos37/tecnologias-comunicacion/tecnologias-comunicacion.shtml#queson

http://es.wipidia.org/wiki/Tecnolog%C3%ADas_de_informaci%C3%B3n_y_comunicaci%C3%B3n







GENES

GENES



Un gen es una secuencia lineal organizada de nucleótidos en la molécula de ADN (o ARN en el caso de algunos virus), que contiene la información necesaria para la síntesis de una macromolécula con función celular específica, normalmente proteínas, pero también ARNm, ARN ribosómico, ARN de transferencia y ARN pequeños.


Esta función puede estar vinculada al desarrollo o funcionamiento de una función fisiológica. El gen es considerado como la unidad de almacenamiento de información genética y unidad de herencia al transmitir esa información a la descendencia. Los genes se disponen, pues, a lo largo de ambas cromátidas de los cromosomas ocupando en el cromosoma una posición determinada llamada locus. El conjunto de genes de una especie, y por tanto de los cromosomas que los componen, se denomina genoma.



Historia


El concepto de gen ha ido variando a lo largo del tiempo, conforme ha avanzado la ciencia que lo estudia, la genética:


Regor Mendel en sus experimentos propuso la idea original del gen, aunque él no los denominó genes, sino factores, y vendrían a ser los responsables de la transmisión de los caracteres de padres a hijos (lo que ahora llamamos genotipo). El gen mendeliano es una unidad de función, estructura, transmisión, mutación y evolución que se distribuye ordenada y linealmente en los cromosomas.


La palabra gen fue acuñada en 1909 por el botánico danés Wilhelm Ludwig Johannsen a partir de una palabra griega que significa "generar", refiriéndose a la unidad física y funcional de la herencia biológica acia 1950, se impuso el concepto de gen como la cadena de ADN que dirige la síntesis de una proteína. Éste es un concepto que proporciona una naturaleza molecular o estructural al gen. El gen codifica proteínas y debe tener una estructura definida por el orden lineal de sus tripletes.



Más tarde surge el concepto de gen como “la cadena de ADN capaz de dirigir la síntesis de un polipéptido”. Este concepto surge al comprobar que la mayoría de las proteínas están formadas por más de una cadena polipeptídica y que cada una de ellas está codificada por un gen diferente.

Actualmente se sabe que algunos genes codifican más de un polipéptido y que una proteína puede ser codificada por el conjunto de diferentes genes. La existencia de genes solapantes y el procesamiento alternativo rebaten la hipótesis de un gen -> un polipéptido. Más bien debe proponerse la relación inversa, un polipéptido -> un gen. Además existen algunos genes que no codifican proteínas sino ARN con función propia (ARN transferentes y ARN ribosómicos, por ejemplo) y que no se traducen, por lo que no es necesaria la traducción para que un gen tenga una función determinada. El gen es, pues, la unidad mínima de función genética, que puede heredarse.





Tipos de genes


Un gen es una secuencia o segmento de ADN necesario para la síntesis de ARN funcional, como el ARN de transferencia o el ARN ribosomal. Sin embargo, estos dos tipos de ARN no codifican proteínas, lo cual es hecho por el ARN mensajero. Para ello, la transcripción genera una molécula de ARN que posteriormente sufrirá traducción en los ribosomas, proceso por el cual se genera una proteína. Muchos genes se encuentran constituidos por regiones codificantes (exones) interrumpidas por regiones no codificantes (intrones) que son eliminadas en el procesamiento del ARN. En células procariontes esto no ocurre pues los genes de procariotas carecen de intrones. La secuencia de bases presente en el ARN determina la secuencia de aminoácidos de la proteína por medio del código genético.Otros genes no son traducidos a proteína, sino quecumplen su función en forma de ARN. Entre éstos, encontramos genes de ARN transferente, ARN ribosómico, ribozimas y otros ARN pequeños de funciones diversas.Algunos genes han sufrido procesos de mutación u otros fenómenos de reorganización y han dejado de ser funcionales, pero persisten en los genomas de los seres vivos. Al dejar de tener función, se denominan pseudogenes, y pueden ser muy parecidos a otros genes del mismo organismo que sean funcionales.


Estos aminoácidos contienen grupos neutros, es decir sin carga, por lo que pueden formar puentes de hidrógeno con el agua. A la glicina algunas veces se le clasifica como aminoácido no polar, debido a que el grupo R consiste en un simple átomo de hidrógeno, demasiado pequeño como para afectar la polaridad de los grupos alfa amino y alfa carboxilo. En los amino serina, treonina y ceronina, la polaridad se debe a la presencia de grupo carboxilo (-COOH) en el caso de la asparagina y de la glutamina.


Cambios en los genes


Los organismos diploides (entre ellos, casi todos los animales y plantas) disponen de dos juegos de cromosomas homólogos, cada uno de ellos proveniente de uno de los padres. Cada par de cromosomas tiene, pues, un par de copias de cada gen, una procedente de la madre y otra del padre.

Algunas enfermedades como la anemia drepanocítica (o anemia falciforme) pueden ser ocasionadas por un cambio en un solo gen (uno de los 30.000 genes que constituyen el plan para todo el cuerpo humano).

Dentro de una población de una especie, los genes pueden aparecer en versiones diferentes, con variaciones pequeñas en su secuencia, y entonces se los denomina alelos (otro, en griego). Cada una de las alternativas que puede tomar un gen dentro de la población es un alelo. Los alelos pueden ser dominantes o recesivos. Cuando una sola copia del alelo hace que se manifieste el rasgo fenotípico, el alelo es dominante. Cuando son precisas dos copias del alelo (una en cada cromosoma del par) para que se manifieste su efecto, el alelo es recesivo.



Entorno del programa genético


Toda molécula tiende a degradar su estado de carga neutra, siendo el momento de manifestar la carga cuando la degradación se manifiesta en la pérdida de un electrón o en su ganancia. En esto interactúan los factores externos e internos de la molécula con el medio. Dado el caso de dos moléculas con carga idéntica y opuesta, tendrán la tendencia a neutralizar la carga formando enlaces químicos. Dichos enlaces pueden ser covalentes. La tendencia más favorable se la denomina 'Gancho' (hook en inglés), y es la equivalente en nuestras dimensiones a la tendencia de ciertas semillas naturales a engancharse al pelo de los animales o incluso a nuestros calcetines.

La dinámica entre el ejemplo y la dimensión molecular es paralela, en los siguientes casos: No existe premeditación en la colocación de la semilla ni el lugar que ocupe la molécula en un momento dado de tiempo. No es evidente en la naturaleza un Ego intencional que determine a la semilla si acaba o no enganchada en el pelo del animal; al igual que tampoco hay razón para pensar de forma similar en el caso de dos moléculas, que coincidiendo en el espacio, tengan por estadística una probabilidad casi cierta de acabar enlazadas.


Bajo estas premisas, b y c se puede decir que funciona el programa genético. Un proceso totalmente autónomo promovido por la dinámica de la energía, del medio de las propiedades inherentes a cada objeto cuya descripción establece la física. Los cálculos físico-químicos ofrecen un planteamiento estadístico de previsiones en los resultados más favorables, determinados por la menor resistencia a la hora de expresar sus propiedades. Este determinismo resulta imponderable por los cálculos físicos. En conclusión, la expresión del programa genético es consecuencia del bien conocido Efecto mariposa.


Dentro de lo que es el programa genético, se puede afirmar que es la memoria de cómo en un pasado las especies estuvieron adaptadas a un medio distinto al actual, pudiendo suponer que las especies pasadas estaban mejor adaptadas que las actuales y entendiendo que los procesos de extinción de las especies son, por tanto, una expresión más de la selección natural.

La entropía asociada a la tendencia a la desorganización de la información hace aún más evidente este hecho.

Las proteínas fibrosas y globulares son heteroproteínas que consisten en capas.








Avances de la Genética


En el año 2003, los científicos que participaron en el proyecto Genoma Humano, que comenzó en 1990, completaron la secuencia de las casi 3.000 millones de "letras" que encierran las instrucciones genéticas humanas. Este importante logro cambiará la medicina para siempre, mientras los científicos avanzan rápidamente hacia su meta de identificar todos nuestros genes y saber qué función cumple cada uno.


Este logro llega después de dos décadas de rápido progreso en la genética humana, la rama de la biología que estudia la herencia. Los científicos han descubierto muchos genes que cumplen funciones importantes en las enfermedades humanas


Por ejemplo, el defecto genético responsable de la forma hereditaria de retraso mental más común, el síndrome de X frágil, fue identificado por becarios de March of Dimes. Otros hallazgos identificaron mutaciones (cambios) genéticas específicas responsables por:


La fibrosis quística, un trastorno de los pulmones y del sistema digestivo que suele ser fatal.


La acondroplasia, una forma de enanismo.


Las neurofibromatosis, enfermedades hereditarias del sistema nervioso.


La Retinitis pigmentosa, un grupo de condiciones hereditarias que causan la pérdida de la visión.


Algunas formas hereditarias de enfermedad cardíaca.


El cáncer de mama y colon familiar.


El ritmo de estos descubrimientos debería acelerarse ahora que los científicos tienen un catálogo casi completo de nuestros genes.

dentificar los genes que causan las enfermedades puede ser un primer paso hacia el desarrollo de tratamientos científicos, como nuevas drogas o terapias con genes, en las que se utiliza un gen sano para reemplazar uno ausente o defectuoso.



Saber más sobre nuestra constitución genética seguramente permitirá desarrollar también un método más individualizado de medicina preventiva. Es posible que pueda someterse a cada persona a determinadas pruebas para saber si es especialmente susceptible a ciertas enfermedades y así poder tomar las medidas necesarias para prevenirlas.


ÁTOMO



ÁTOMO

Es la unidad más pequeña de un elemento químico que mantiene su identidad o sus propiedades y que no es poEstructura atómica
La teoría aceptada hoy es que el átomo se compone de un núcleo de carga positiva formado por protones y neutrones, en conjunto conocidos como nucleón, alrededor del cual se encuentra una nube de electrones de carga negativa.

El núcleo atómico
Artículo principal: Núcleo atómico
El núcleo del átomo se encuentra formado por nucleones, los cuales pueden ser de dos clases:
Protones: Partícula de carga eléctrica positiva igual a una carga elemental, y 1,67262 × 10–27 kg y una masa 1837 veces mayor que la del electrón.
Neutrones: Partículas carentes de carga eléctrica y una masa un poco mayor que la del protón (1,67493 × 10–27 kg).
El núcleo más sencillo es el del hidrógeno, formado únicamente por un protón. El núcleo del siguiente elemento en la tabla periódica, el helio, se encuentra formado por dos protones y dos neutrones. La cantidad de protones contenidas en el núcleo del átomo se conoce como número atómico, el cual se representa por la letra Z y se escribe en la parte inferior izquierda del símbolo químico. Es el que distingue a un elemento químico de otro. Según lo descrito anteriormente, el número atómico del hidrógeno es 1 (1H), y el del helio, 2 (2He).
La cantidad total de nucleones que contiene un átomo se conoce como número másico, representado por la letra A y escrito en la parte superior izquierda del símbolo químico. Para los ejemplos dados anteriormente, el número másico del hidrógeno es 1(1H), y el del helio, 4(4He).
Existen también átomos que tienen el mismo número atómico, pero diferente número másico, los cuales se conocen como isótopos. Por ejemplo, existen tres isótopos naturales del hidrógeno, el protio (1H), el deuterio (2H) y el tritio (3H). Todos poseen las mismas propiedades químicas del hidrógeno, y pueden ser diferenciados únicamente por ciertas propiedades físicas.
Otros términos menos utilizados relacionados con la estructura nuclear son los isótonos, que son átomos con el mismo número de neutrones. Los isóbaros son átomos que tienen el mismo número másico.
Debido a que los protones tienen cargas positivas se deberían repeler entre sí, sin embargo, el núcleo del átomo mantiene su cohesión debido a la existencia de otra fuerza de mayor magnitud, aunque de menor alcance conocida como la interacción nuclear fuerte.
Interacciones eléctricas entre protones y electrones
Antes del experimento de Rutherford la comunidad científica aceptaba el modelo atómico de Thomson, situación que varió después de la experiencia de Rutherford. Los modelos posteriores se basan en una estructura de los átomos con una masa central cargada positivamente rodeada de una nube de carga negativa.
Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los electrones se moverían alrededor del núcleo en órbitas. Este modelo tiene una dificultad proveniente del hecho de que una partícula cargada acelerada, como sería necesario para mantenerse en órbita, radiaria radiación electromagnética, perdiendo energía. Las leyes de Newton, junto con la ecuaciones de Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del orden de 10−10 s, toda la energía del átomo se habría radiado, con la consiguiente caída de los electrones sobre el núcleo.
Nube electrónica.

Nube de electrones
Alrededor del núcleo se encuentran los electrones que son partículas elementales de carga negativa igual a una carga elemental y con una masa de 9,10 × 10–31 kg
La cantidad de electrones de un átomo en su estado basal es igual a la cantidad de protones que contiene en el núcleo, es decir, al número atómico, por lo que un átomo en estas condiciones tiene una carga eléctrica neta igual a 0.
A diferencia de los nucleones, un átomo puede perder o adquirir algunos de sus electrones sin modificar su identidad química, transformándose en un ion, una partícula con carga neta diferente de cero.
El concepto de que los electrones se encuentran en órbitas satelitales alrededor del núcleo se ha abandonado en favor de la concepción de una nube de electrones deslocalizados o difusos en el espacio, el cual representa mejor el comportamiento de los electrones descrito por la mecánica cuántica únicamente como funciones de densidad de probabilidad de encontrar un electrón en una región finita de espacio alrededor del núcleo.
Dimensiones atómicas
La mayor parte de la masa de un átomo se concentra en el núcleo, formado por los protones y los neutrones, ambos conocidos como nucleones, los cuales son 1836 y 1838 veces más pesados que el electrón respectivamente.
El tamaño o volumen exacto de un átomo es difícil de calcular, ya que las nubes de electrones no cuentan con bordes definidos, pero puede estimarse razonablemente en 1,0586 × 10–10 m, el doble del radio de Bohr para el átomo de hidrógeno. Si esto se compara con el tamaño de un protón, que es la única partícula que compone el núcleo del hidrógeno, que es aproximadamente 1 × 10–15 se ve que el núcleo de un átomo es cerca de 100.000 veces menor que el átomo mismo, y sin embargo, concentra prácticamente el 100% de su masa.
Para efectos de comparación, si un átomo tuviese el tamaño de un estadio, el núcleo sería del tamaño de una canica colocada en el centro, y los electrones, como partículas de polvo agitadas por el viento alrededor de los asientos.sible dividir mediante procesos químicos.





EVOLUCION DEL MODELO ATOMICO


La concepción del átomo que se ha tenido a lo largo de la historia ha variado de acuerdo a los descubrimientos realizados en el campo de la física y la química. A continuación se hará una exposición de los modelos atómicos propuestos por los científicos de diferentes épocas. Algunos de ellos son completamente obsoletos para explicar los fenómenos observados actualmente, pero se incluyen a manera de reseña histórica.
Modelo de Dalton
Artículo principal: Modelo atómico de John Dalton
Fue el primer modelo atómico con bases científicas, fue formulado en 1808 por John Dalton, quien imaginaba a los átomos como diminutas esferas. Este primer modelo atómico postulaba:
La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir.
Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de los diferentes elementos tienen pesos diferentes.
Los átomos permanecen sin división, aún cuando se combinen en las reacciones químicas.
Los átomos, al combinarse para formar compuestos guardan relaciones simples.
Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de un compuesto.
Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
Sin embargo desapareció ante el modelo de Thomson ya que no explica los rayos catódicos, la radioactividad ni la presencia de los electrones (e-) o protones(p+).




Modelo de Thomson


Luego del descubrimiento del electrón en 1897 por Josep John Thomson, se determinó que la materia se componía de dos partes, una negativa y una positiva. La parte negativa estaba constituida por electrones, los cuales se encontraban según este modelo inmersos en una masa de carga positiva a manera de pasas en un pastel (de la analogía del inglés plum-pudding model) o uvas en gelatina. Posteriormente Jean Perrin propuso un modelo modificado a partir del de Thompson donde las "pasas" (electrones) se situaban en la parte exterior del "pastel" (la carga positiva).
Detalles del modelo atómico
Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una nube positiva que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras radiaciones.




Modelo de Bohr


Este modelo es estrictamente un modelo del átomo de hidrógeno tomando como punto de partida el modelo de Rutherford, Niels Bohr trata de incorporar los fenómenos de absorción y emisión de los gases, así como la nueva teoría de la cuantización de la energía desarrollada por Max Planck y el fenómeno del efecto fotoeléctrico observado por Albert Einstein.
“El átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose alrededor del núcleo en órbitas bien definidas.” Las órbitas están cuantizadas (los e- pueden estar solo en ciertas órbitas)
Cada orbita tiene una energía asociada. La más externa es la de mayor energía.
Los electrones no radian energía (luz) mientras permanezcan en órbitas estables.
Los electrones pueden saltar de una a otra orbita. Si lo hace desde una de menor energía a una de mayor energía absorbe un cuanto de energía (una cantidad) igual a la diferencia de energía asociada a cada orbita. Si pasa de una de mayor a una de menor, pierde energía en forma de radiación (luz).
El mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrógeno. Pero solo la luz de este elemento. Proporciona una base para el carácter cuántico de la luz, el fotón es emitido cuando un electrón cae de una orbita a otra, siendo un pulso de energía radiada. Bohr no puede explicar la existencia de órbitas estables y para la condición de cuantización. Bohr encontró que el momento angular del electrón es h/2π por un método que no puede justificar.


Modelo de Schrödinger: modelo actual

Después de que Louis-Victor de Broglie propuso la naturaleza ondulatoria de la materia en 1924, la cual fue generalizada por Erwin Schrödinger en 1926, se actualizó nuevamente el modelo del átomo.
En el modelo de Schrödinger se abandona la concepción de los electrones como esferas diminutas con carga que giran en torno al núcleo, que es una extrapolación de la experiencia a nivel macroscópico hacia las diminutas dimensiones del átomo. En vez de esto, Schrödinger describe a los electrones por medio de una función de onda, el cuadrado de la cual representa la probabilidad de presencia en una región delimitada del espacio. Esta zona de probabilidad se conoce como orbital. La gráfica siguiente muestra los orbitales para los primeros niveles de energía disponibles en el átomo de hidrógeno.

GENÉTICA.

GENÉTICA





La genetica es la transmision a traves del material genetico contenido en el nucleo celular, de las caracteristicas anatomicas, fisiologicas, etc, de un ser vivo a sus descendientes. El ser vivo resultante tendra caractéres de uno o los dos padres.


La herencia consiste de la transmision de su descendencia a los caracteres de los ascendentes. El conjunto de todos los caracteres transmisibles que vienen fijando en los genes, reciben el nombre de genotipo y su manifestacion exterior en el aspecto del individuo el de fenotipo. Se llama idiotipo al conjunto de posibilidades de manifestar un caracter que poresenta un individuo.


Para que los genes se transmitan a los descendientes es necesaria una reproduccion identica que de lugar a una replica de cada uno de ellos, este fenomeno tiene un lugar en la mitosis. En el organismo que surge del cigoto, a medida que va desarrollandose a partir del cumulo inicial de celulas es posible, diferenciar dos estirpes celulares: Una linea somatica, que dara lugar a los sistemas organicos que mantendran con vida al organismo, y otra germinal, que sera la encargada de que el organismo se reproduzca.


Lo esencial de la herencia queda establecida en la denominada teoria cromosomica de la herencia: 1-Los genes estan situados sobre los cromosomas. 2-Los genes estan dispuestos linealmente sobre los cromosomas. 3-La recombinacion de los genes se corresponde con el intercambio de segmentos cromosomicos.


Los padres son sanos pero portadores de la enfermedad, pudiendo transmitir el gen anormal a alguno de sus hijos. Su gravedad es mayor en el casoainterior, sin embargo las posibilidades de transmision se reduce al 25%.

GENOMA

GENOMA







El genoma humano es el genoma (del griego ge-o: que genera, y-ma: accion) del hommo-sapiens. Esta compuesto por 24 secuencias cromosomicas distintas (22 autosomas + 2cromosomas sexuales: X,Y) con un tamaño total aproximado de 3200 millones de pares de bases de ADN (320 Mb) que contiene unos 20000-25000 genes. De las 3200 Mb unas 2950 Mb corresponden a eucromatica y unas 250 Mb a heterocromatina. El proyecto genoma humano produjo una secuencia de referencia del genoma humano eurocromatico, usado en todo el mundo en las ciencias biomedicas.
La secuencia de ADN que conforma el genoma humano contiene codificada la informacion necesaria para la expresion, altamente coordinada y adaptable al ambiente, del proteoma humano, es decir, del conjunto de proteinas del ser humano. Las proteinas, y no el ADN, son las principales biomoleculas efectoras; poseen funciones estructurales, enzimaticas, metabolicas, reguladoras, señalizadoras, organizandose en enormes redes funcionales de interacciones. En definitiva, el proteoma fundamenta la particular morfologia y funcionalidad de cada celula. Asi mismo, la organizacion estructural, y funcional de las distintas celulas conforma cada tejido y cada organo, y, finalmente el organismo vivo en su conjunto. Asi el genoma humano contiene la informaciòn necesaria para el desarrollo basico de un ser humano completo.
El genoma humano presenta una densidad de genes muy inferior a la que inicialmente se habia predicho, con solo en torno al 1,5% de su longitud compuesta por exones codificantes de proteinas. Un 70% esta compuesto por ADN extragenico y un 30% por msecuencias relacionadas con genes. Del total de ADN extragenico, aproximadamente un 70% corresponde a repeticiones dispersas, de manera que, mas o menos, la mitad del genoma humano corresponde a secuencias repetitivas del ADN. Por su parte, del total de ADN relacionado con genes se estima que el 95% corresponde a ADN no codificante: pseudogenes, fragmentos de genes, intrones, secuencias UTR...
Contenido en genes y tamaño del genoma de varios organismos
Especie
Tamaño del genoma (Mb)
Númerode genes

Mycoplasma genitalium
0,58
500
Streptococcus pneumoniae
2,2
2300
Escherichia coli
4,6
4.400
Saccharomyces cerevisiae
12
5.800
Caenorhabditis elegans
97
19.000
Arabidopsis thaliana
125
25.500
Drosophila melanogaster (mosca)
180
13.700
Oryza sativa (arroz)
466
45-55.000
Mus musculus (ratón)
2500
29.000
Homo sapiens (ser humano)
2900
27.000

Un gen es la unidad basica de la herencia, y porta la información genetica necesaria para la sintesis de una proteina (genes codificantes) o de un ARN no codificante (genes de ARN). Esta formado por una secuencia promotora, que regula su expresion, y una secuencia que se transcribe, compuesta a su vez por: secuencias UTR (regiones flanqueantes no traducidas), necesarias para la traduccion y la estabilidad del ARN, exones (codificantes), e intrones, que son secuencias de ADN no traducidas situadas entre dos exones que seran eliminadas en el procesamiento del ARN.
El genoma humano se caracteriza por presentar una gran heterogeneidad en su secuencia. En particular, la riqueza se basa en guanina(G) y citosina (C) frente a las da adenina (A) y timina (T) se distrubuye hetereogeneamente, con regiones muy ricas en G+C flanqueadas por regiones muy pobres, siendo el contenido medio de G+C del 41% menor al teoricamente esperado (50%). Dicha hetereogeneidad esta correlacionada con la riqueza en genes, de manera que los genes tienden a concertarse en las regiones mas ricas de G+C. Este hecho era conocido ya desde hace años gracias a la separacion mediante la centrifugacion en gradiente de densidad de regiones ricas de G+C (que recibieron el nombre de isocoros H; del ingles high) y regiones ricas en A+T (isocoros L; del ingles low).

CIENCIAS COGNITIVAS

CIENCIAS COGNITIVAS

Se denomina ciencias cognitivas al conjunto de disciplinas que surgen de la convergencia transdiciplinaria de investigaciones científicas y tecnológicas, en torno sa los fenómenos funcionales y emergentes, dasos a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso, incorporaod, y que típicamente se les denomina como: mente y comportamiento. La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinarias (es decir, tanto inter comomultidisciplinarias), surgiendo en un primer momento a partir d disciplinas autómonas comola linguistica, la psicobiología cognitiva y la inteligencia artificial, y añadiéndose en una tepa más reciente la neurociencia y la antropología cognitiva. La heurística de las investigación cognitivas ha sido guiada por preocupaciones eminentemente filosóficas, a partir de algunas de sus ramas como la lógica, la gnosología, la epistemología y la filosofia u ontología de la mente.





















La preocupación pór desarrollar investigaciones científicas y tecnológicas, en torno a los fenómenos del comportamiento, de la mente y de la inteligencia, está presente edn muy diversos pogramas de investigación y enfoques desde finales del siglo XIX y durante la primera mitad del siglo XX. Por eso a mediados del siglo XX, surgen con relatividad independencia, enfoques con objetos de estudio convergentes, pero con metodologías divergentas. Es posible evidenciar los estudios de psicología cognitiva como los de Jean Piaget y Jerome Bruner; de Cibernética de Norbert Wiener, de psicología cognitiva de Karl Lashley y Donal Hebb. En este contexto a finales de la década de 1950 a inicios de la de 1960 surgen esfuerzos transdiciplinarios por lograr una convergencia teórica y metodológica. Un primer intento lo realizan un psicólogo: Allen Newell y un economista: Herbert Simon, integrado investigaciones de psicología cognitiva, conlas incipientes técnicas de programación lógica, construyendo los primeros jugadoresd e eajedrez y demostradores de teoremas automáticos, que se convierten entonces en los primeros pasos de la disciplina que eventualmente Jhon McCarthy, creador del lenguaje LISP, denominará como : Inteligencia Artificial (elprimer modelo de inteligencia artificial fue de tipo funcionalista y se sustentó en la Tesis de Church-Turing). Newell y simon, ensamblarán el primer programa transdiciplinario de investigaciones en las ciencias cognitivas: "La hipótesis del sistema de símbolos físicos", que permite la modelación funcionalista de la mente y su emulación en plataformas de computación electrónica. Allen Newell y Herbert Simon presentaron en un simposioen el MIT, en 1956, con el título "la máquina de la teoría lógica", la primera demostración completa de un teorema realizado por una computadora. En el mismo simposio, Noam Chomsky esbozó "tres modelos de lenguaje ", donde presentaba su modelo transformacional de la gramática, y al psicólogo Geirge Miller explicó su trabajo seminal sobre la representaciones mentales, fragmentos de información que son codificadas y descodificadas en la mente. Estos esfuerzos por lograr una convergencia teóricay metodológica por John McCarthy, Marvin Minsky, Allen Newell, y Herbert Simon permitió la inteligencia artificial, que no solo es transdiciplinaria,sino que deshace las fronteras rígidas entra la ciencia, la tecnología y la filosofía. TYodos ellos iban tomando conciencia desde sus respectivos ámbitos de que la psicología experimental humana, la linguistica teórica y la simulación de procesos cognitivos formaban parte de una "totalidad mayor, inquietudes comunes que en los años posteriores irían siendo elaboradas y recibirían la denominación de ciencias cognitivas.







Es posible ubicar los orígenes institucionales a mediados de la década de 1970, con la fundación de la Cognitive Sciencie Society y la revista Cognitive Sciencie, en la cual se han publicado algunos textos que se consideran clásicos de la ciencias cognitivas. Desde entonces se han diversificado los ámbitos de investigación cognitiva, los centros, institutos, grados y postgrados de institutos cognitivos alrededor de todo el mundo, a partir de lo cual, se ha dado una alta densidad de resultados de investigaciones transdiciplinarias y una multiplicidad de publicaciones periódicas, libros y enciclopedias, convirtiendo todo ello en una verddera revolución cognitiva. Actualmente, exixten programas de ciencia cognitiva en más de 60 uiniversidades de todo el mundo.

TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN

LAS TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN


Las tecnologías de la información y la cominicación (TIC) son un conjunto de técnicas, desarrollos y dispositivos avanzados que intengran funcionalidades de almacenamiento, procesamientoy transmisión de datos.

Las TIC tiene como fin la mejora de la vida, son aparatos de comunicación.

En sociología y política, la expresión TIC se utilizapara mencionar los aparatos electrónicos con fines de comunicación con fianalidades concretas com, por ejemplo:


-Organizacióny gestión empresarial
-Decidir

Por ello, para las ciencias socialesy analistas de tendencias, las TIC no se refieren a la implementación tecnológicas concreta, sino de aquellos otros valores intangibles que son el estudio propio de dichas disciplinas.


























¿Qué son las TICs y cuales son sus inicios?

Las tecnologías de la información y de la cominicación (TIC) -la unión de los computadores y las comunicaciones- desataron una explosión sin precedentes de formas de comunicarse al comienzo de los años 90s. A partir de ahí, la internet pasó de ser un instrumento especializado de la comunidad científica a ser una red de facil uso que modificó las pauta de interacción social.

Por Tecnologías de la información o Tecnologías de la información y de la comunicación(TIC) se entiende un termino dilatado empleado para designar lo relativo a la informática conectada a Internet, y especialmente el aspecto social de éstos. Ya que las nuevas tecnologías de la información y comonicación designa a la vez un conjunto de innovaciones tecnológicas pero también las herramientas que permiten una redefinición radical del funcionamiento de la sociedad; Un buen ejemplo de la influencia de los TIC sobre la sociedad es el gobierno electrónico.

En resumen las nuevas tecnologías de la Información y Comunicación son aquellas herramientas computacionales e informáticas que procesan, almacenan, sintetizan, recuperan y presentan información representada de la más variada forma. Es un conjunto de herramientas, soportantes y canales para el tratamiento yacceso a la información. Constituyen nuevos soportes y canales para dar forma, registrar, almacenar, y difundir contenidos informacionales. Algunos ejemplos de estas tecnológias son la pizarra digital (ordenador personal + proyecto multimedia), los blogs, el podcast y por supuesto la web.

Por todo tipo de aplicaciones educativas las TIC son medios y no fines. Es decir, son herramientas y materiales de construcción que facilitan el aprendizaje, el desarrollo de habilidades y distintas formas de aprender, estilos y ritmos de los aprendices.

¿Cuáles son las ventajas y desventajas de las TICs?

Si bien es cierto que la necesidades d comunicarse hace mas notorio el carácter indispensable del conocimiento sobre las tecnologías de información y comunicación y la aplicación de éstas en distintos ámbitos de la vida humana, se hace necesario también reconocer las repercusiones que traerá consigo la utilización de estas nuevas tecnologías ya sean benéficas o perjudiciales.

A continuación se mostrarán algunas de las ventajas y desventajas que origina el empleo de las TICs en el desarrollo de las actividades humanas.

-Ventajas:

Las ventajas reconocibles en torno a las relaciones existentes entre el incremento en la producción y difusión de nuevas tecnologías y las posibilidades que las empresas tienen de acceder a conocerlas y utilizarlas conocimiento de los factores endógenos y exógenos que inciden en la apropiación de las innovaciones tecnológicas por parte de las empresas trae a cuenta que los procesos de innovación social que moviliza las capacidades de la organización, constituyéndose en una instancia de generación de conocimiento que remite a los saberes que se recrean en diferentes áreas de la empresa, en un proceso dinámico, continuo y acumulativo;que modifica y reelavora las competencias organizativas.

Otras ventajas que podemos mencionar son las siguientes:

-Brindar grandes beneficios y adelantos en salud y educación;
-Potenciar a las personas y actores sociales, ONG, etc., a través de redes de apoyo e intercambio y lista de discusión.
-Apoyar a las PYME de las personas empresarias locales para presentar y vender sus productos a través de la Internet.
-Permitir nuevos conocimientos para la empleabilidad que requieren muchas competencias (integración, trabajo en equipo, motivación, disciplina, etc).
-Ofrecer nuevas formas de trabajo, como teletrabajo.
-Dar acceso al flujo de conocimientos e información para empoderar y mejorar las vidas de las personas.

-Facilidades
-Exactitud
-Menores riesgos
-Menores costos

-Desventajas:

-los beneficios de esta revolución no están distribuidos de manera equitativa; junto con el crecimiento de la red Internet ha surgido un nuevo tipo de pobreza que separa los países en desarrollo de la información, dividiendo los educandos de los analfabetos, los ricos de los pobres, los jovenes de los viejos, los habitantes urbanos de los rurales, diferenciando en todo momento a las mujeres de los varones. Según se afirmaen el informesobre el empleo en el mundo 2001 de la OIT "la vida en el trabajo en la economía de la información", aunque el rápido desarrollo de la tecnología de la información y la comunicación (TIC) constituye una "revolución en ciernes" existen entre "los ricos y los pobres" tecnológicos.
























El internauta típico a escala mundial es hombre, de alrededor de 36años de edad, con educación universitaria, ingresos elevados, que vive en una zona urbana y habla inglés. En esta contexto, las mujeres latinoamericanas- y especialmente aquéllas de ingresos bajos que viven en zonas rurales - tienen que enfrentar un doble- o un triple- desafio para estar incluidas y conectadas en el desarrollo de la aldea global de las TICs.

Otras desventajas que se pueden observar en la utilizaciónde las tecnologías de información y comunicación son:

-Falta de privacidad
-Aislamiento
-fraude
-Merma los puestos de trabajo

¿Cuales son las características de las TICs?

Las tecnologías de información y comunicación tiene como caraterísticas princiàles las siguientes:

-Son de carácter innovador y creativo, pues dan acceso ha nuevas formas de comunicación.
-Tiene mayor influencia y beneficia en mayor proporción al área educativa ya que las hace mas accesible y dinámica.
-Son considerados temas de debate público y político, pues su utilización implica un futuro prometedor.
-Se relacionan con mayor frecuencia con el uso de la Internet y la informática.
-Afectan a numerosos ámbitos de la ciencia humana como la sociología, la teoría de las organizaciones o la gestión.
-En America Latina se destacan con su utilización en las universidades e instituciones paises como: Argentina y México, en Europa: España y Francia.
-Las nuevas tecnologías son:
-Internet
-Robótica
-Computadoras de propósito específico
-Dinero electrónico.
-Resulta un gran alivio económico a largo plazo, aunque en el tiempo de adquisición resulte una fuerte inversión
-Constituyen medio de comunicación y adquisición de información de toda variedad, inclusive científica, alos cuales las personas pueden acceder por sus propios medios, es decir potencian la educación a distancia en la cual es casi una necesidad del alumno tener poder llegar a toda la información posible generalmente solo, con una ayuda mínima del profesor.

ADN Y ARN

ADN Y ARN


















ADN: Acido Desoxirribonucleico, es un acido nucleico constituido por un gran numero de nucleotidos unidos y dispuestos en dos hélice. Constituye un material cromosomico y contiene toda la información hereditaria correspondiente a la especie.


ARN: Acido Ribonucleico, es un acido nucleico constituido por un gran numero de nucleotidos unidos y dispuestos linealmente. Existen diversos tipos de ARN: mensajero, ribosomico y de transferencia.


El ADN y el ARN se diferencian quimicamente por dos cosas: La molecula del azucar del ARN contiene un atomo de oxigeno que falta en el ADN, y el ARN contiene la base uracilo en lugar de la timina del ADN.


Cada nucleotido del ADN esta compuesto por tres subunidades: Una base nitrogenada, una desoxirribosa y un grupo fosfato. Hay cuatro tipos de bases nitrogenadas en los nucleotidos del
ADN: (T) timina, (C) citosina, (G) guanina y (A) adenina. Es importante resaltar que asi como hay regiones con funcion conocida o supuesta (los genes), sucede que casi la mitad del ADN del genoma humano consiste de regiones (intrones) con funcion hasta hoy desconocida y que tiene una secuencia de nucleotidos repetitiva en muchos casos pero con patrones hipervariables en muchas regiones del genoma.


UBICACIÓN ADN: El ADN se encuentra exclusivamente en el nucleo de las celulas. En el genoma (conjunto integral y secuenciado del ADN) humano se estima que hay aproximadamente 50000 o mas genes. Los genes son trozos funcionales de ADN compuestos a su vez desde 1000 hasta 200000 unidades cada uno llamadas nucleotidos.


UBICACIÓN ARN: Composición, como el ADN y el ARN estan formados por una cadena de compuestos quimicos llamada nucleotidos. Cada uno esta formado por una molecula de un azucar llamado ribosa, un grupo fosfato y uno de cuatro posibles compuestos nitrogenados llamados bases: adenina, guanina, citosina y uracilo. Estos compuestos se unen igual que un acido desoxirribonucleico (ADN). El ARN se difernecia quimicamente del ADN por dos cosas: La molecula de azucar del ARN contiene un atomo de oxigeno que falta en el ADN, y el ARN contiene la base nitrogenada llamada uracilo en lugar de la timina del ADN.

REDES NEURONALES

REDES NEURONALES































El cerebro es una de las cumbres de la evolución biologica, ya que es un gran procesador de información. Entre sus caracteristicas podemos destacar, que es capaz de procesar a gran velocidad grandes cantidades de información procedentes de los sentidos, cambiarla o compararla con la información almacenada y dar respuestas adecuadas. Ademas es de destacar su capacidad de aprender a representar la información necesaria para desarrollar tales habilidades, sin instrucciones explicitas para ello.


Los cientificos llevan años estudiandolo y se han desarrollado algunos modelos matematicos que tratan de simular su comportamiento. Estos modelos se han basado sobre los estudios de las caracteristicas esenciales de las neuronas y sus conexiones.


Aunque estos modelos no son mas que aproximaciones lejanas de las neuronas biologicas, son muy interesantes por su capacidad de aprender y asociar patrones parecidos lo que nos permite afrontar problemas de dificil solución con la programación tradicional. Se han implementado en computadoras y equipos especializados para ser simulados.


Con el paso de los años, los modelos de neuronas iniciales se han ido complicando, introduciendo nuevos conceptos llegando a ser un paradigma de computación (equivalente a las maquinas de turing) basados en el comportamiento de las neuronas.


Las Redes Neuronales Artificiales se constituyeron inicialmente como una simulación abstracta de los sitemas nerviosos biologicos formados por un conjunto de unidades llamadas neuronas o nodos conectados unos con otros. Las conexiones de estos nodos se asemejan a las dendritas y axónes de los sistema nerviosos biologicos.


Las RNA pueden clasificarse en modelos de tipo biologico y tipo dirigido a la aplicación de acuerdo a su similitud con la realidad biologica.


Tipo Biologico: Se constituyen en redes que tratan de simular los sistemas neuronales biologicos asi como las funciones auditivas o finciones basicas de la visión.


Modelos Dirigidos a Aplicaciones: No necesariamente guardan similituid con los sistemas biologicos. Sus arquitecturas estan fuertemente ligadas a las necesidades de las aplicaciones para las que son diseñados.


REDES NEURONALES DE TIPO BIOLÓGICO.


El cerebro humano promedio cuenta con aproximadamente mil millones de neuronas. Asimismo durante la sinapsis cada una de estas neuronas recibe en promedio al rededor de 1000 estimulos de entrada y genera alrededor de 1000 estimulos de salida. En este sentido, la principal ventaja del cerebro humano recae en su conectividad.



El objetivo de las redes neuronales de tipo biologico se constituye en desarrollar un elemento sintactico que permita verificar las hipotesis correspondientes a los demas sistemas sistemas biologicos. Es decir las redes neuronales de tipo biologico deben recibir y procesar información de otros sistemas biologicos y devolver una respuesta de acción efectiva.










La mayor parte de las neuronas posee una estructura arborea formada en su mayor parte por dendritas que, conectadas a otras neuronas, se encargan de recibir los estumulos de entradas neuronales mediante uniones denominadas sinopsis. Algunas neuronas tienen una estructura que las comunica con miles de neuronas mas, mientras otras solo pueden comunicarse con unas cuantas que hay a su alrededor.



REDES NEURONALES PARA APLICACIONES CONCRETAS.

El conocimiento que se posee sobre el sistema nervioso es aún incompleto. En este sentido, las RNA no se encuentran muy ligadas a lo que son en si las redes neuronales biologicas. Por lo tanto, se han definido otras funcionalidades y estructuras de conexion distinta a las establecidas por la biologia. las principales caracteristicas de las RNA son las siguientes:


AUTO ORGANIZACION Y ADAPTABILIDAD: Utilizan algoritmos de aprendizaje adaptativo y auto organización ofreciendo posibilidades de un procesamiento robusto y adaptable.


PROCESO NO LINEAL Y PARALELO: Aumenta la capacidad de la neurona para poder aproximas y clasificar información haciendose mas inmune al ruido (datos desordenados).


Estas caracteristicas juegan un papel importante en las RNA aplicadas al procesado de las señales. En este sentido, la red constituida para una aplicación determinada poseera una arquitectura concreta de elementos de procesado adaptivo, masivo y paralelo al que se conbinan en estructuras de conexion de red jerarquica.