lunes
EL TECNOPROGRESIVISMO
BITs
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Combinaciones de bits
0 0 - Los dos están "apagados"
0 1 - El primero (de derecha a izquierda) está "encendido" y el segundo "apagado"
1 0 - El primero (de derecha a izquierda) está "apagado" y el segundo "encendido"
1 1 - Los dos están "encendidos"
Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores rojo, verde, azul y negro.
A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con un número de bits pueden representarse hasta 2n valores diferentes.
Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.
En cualquier sistema de numeración posicional, el valor de los dígitos depende del lugar en el que se encuentren.
En el sistema decimal, por ejemplo, el dígito 5 puede valer 5 si está en la posición de las unidades, pero vale 50 si está en la posición de las decenas, y 500 si está en la posición de las centenas. Generalizando, cada vez que nos movemos una posición hacia la izquierda el dígito vale 10 veces más, y cada vez que nos movemos una posición hacia la derecha, vale 10 veces menos. Esto también es aplicable a números con decimales.
Centena Decena Unidad
+---------+---------+---------+
x 100 x 10 x 1
+---------+---------+---------+
100 + 50 + 3 = 153.
En el sistema binario es similar, excepto que cada vez que un dígito binario (bit) se desplaza una posición hacia la izquierda vale el doble (2 veces más), y cada vez que se mueve hacia la derecha, vale la mitad (2 veces menos).
16 8 4 2 1 <-- de acuerdo a +----+----+----+----+----+ su posición
En los computadores cada byte se identifica con su posición en la memoria (dirección). Cuando se manejan números de más de un byte, éstos también deben estar ordenados. Este aspecto es particularmente importante en la programación en código máquina, ya que algunas máquinas consideran el byte situado en la dirección más baja el menos significativo (a little endian, como los procesadores Intel) mientras que otras consideran que ése es el más significativo (arquitectura big endian, como los procesadores Motorola). De este modo, un byte con el número decimal 27 se almacenaría en una máquina little endian igual que en una máquina big endian, ya que sólo ocupa un byte. Sin embargo, para números más grandes los bytes que los representan se almacenarían en distinto orden en cada arquitectura.
Por ejemplo, consideremos el número hexadecimal entero AABBCCDD, de 32 bits (4 bytes), localizado en la dirección 100 de la memoria. El número ocuparía las posiciones desde la 100 a la 103, pero dependiendo de si la máquina es little o big endian, los bytes se almacenarían de diferente manera:
Little-endian (Como Intel)
100
101
102
103
...
DD
CC
BB
AA
...
Big-endian (Como Motorola)
100
101
102
103
...
AA
BB
CC
DD
...
Little-endian
103
102
101
100
...
AA
BB
CC
DD
...
Big-endian
103
102
101
100
...
DD
CC
BB
AA
...
La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.
El funcionamiento es el siguiente: El circuito electrónico en los ordenadores detecta la diferencia entre dos estados (corriente alta y corriente baja) y representa esos dos estados como uno de dos números, 1 o 0. Estos básicos, alta/baja, ambos/o, si/no unidades de información se llaman bits.
BIOÉTICA
En un sentido más amplio, sin embargo, la Bioética no se limita al ámbito médico, sino que incluye todos los problemas morales que tienen que ver con la vida en general, extendiendo de esta manera su campo a cuestiones relacionadas con el medio ambiente y al trato debido a los animales.
La bioética es una disciplina relativamente nueva y el origen del término corresponde al oncólogo norteamericano Van Rensselaer Potter, quien utilizó el término por primera vez en 1970 en un artículo publicado en la revista de la Universidad de Wisconsin "Perspectives in Biology and Medicine" y cuyo título ostentaba por primera vez dicho término: "Bioética: la ciencia de la supervivencia". Posteriormente, el año 1971, Potter publica un libro con el título de "Bioética: Puente hacia el futuro" ("Bioethics: Bridge to the future") en el cual se recogen varios de sus artículos.
Definición y dominio
La bioética abarca las cuestiones éticas acerca de la vida que surgen en las relaciones entre biología, nutricion, medicina, política, derecho, filosofía, sociología, antropología, teología,... Existe un desacuerdo acerca del dominio apropiado para la aplicación de la ética en temas biológicos. Algunos bioéticos tienden a reducir el ámbito de la ética a la moralidad en tratamientos médicos o en la innovación tecnológica. Otros, sin embargo, opinan que la ética debe incluir la moralidad de todas las acciones que puedan ayudar o dañar organismos capaces de sentir miedo y dolor.
El criterio ético fundamental que regula esta disciplina es el respeto al ser humano, a sus derechos inalienables, a su bien verdadero e integral: la dignidad de la persona.
Por la íntima relación que existe entre la bioética y la antropología, la visión que de ésta se tenga condiciona y fundamenta la solución ética de cada intervención técnica sobre el ser humano.
La bioética es con frecuencia material de discusión política, resultando en crudos enfrentamientos entre aquellos que defienden el progreso tecnológico en forma incondicionada y aquellos que consideran que la tecnología no es un fin en sí, sino que debe estar al servicio de las personas.
Las primeras declaraciones de bioética surgen con posterioridad a la Segunda Guerra Mundial, cuando el mundo se escandaliza con el descubrimiento de los experimentos médicos llevados a cabo por los facultativos del régimen hitleriano sobre los prisioneros en los campos de concentración. Esta situación, a la que se suma el dilema planteado por el invento de la fístula para diálisis renal de Scribner (Seattle, 1960), las prácticas del Hospital Judío de Enfermedades Crónicas (Brooklyn, 1963) o la Escuela de Willowbrook (Nueva York, 1963), van configurando un panorama donde se hace necesaria la regulación, o al menos, la declaración de principios a favor de las víctimas de estos experimentos. Ello determina la publicación de diversas declaraciones y documentos bioéticos a nivel mundial.
Principios fundamentales de la bioética
En 1979, los bioeticistas Beauchamp, T.L y Childress, J.F,[1] definieron como cuatro los principios de la Bioética: autonomía, no maleficencia, beneficencia y justicia. En un primer momento definieron que estos principios son prima facie, esto es, que vinculan siempre que no colisionen entre ellos, en cuyo caso habrá que dar prioridad a uno u otro dependiendo del caso. Sin embargo en 2003, Beauchamp[2] considera que los principios deben ser especificados para aplicarlos a los análisis de los casos concretos, o sea, deben ser discutidos y determinados por el caso concreto a nivel casuístico.
Los cuatro principios definidos por Beauchamp y Childress son:
Principio de autonomía
El principio de autonomía tiene un carácter imperativo y debe respetarse como norma, excepto cuando se dan situaciones en que las personas puedan ser no autónomas o presenten una autonomía disminuida (menores de edad, personas en estado vegetativo o con daño cerebral, etc.) siendo necesario en tal caso justificar por qué no existe autonomía o por qué ésta se encuentra disminuida. En el ámbito médico, el consentimiento informado es la máxima expresión de este principio de autonomía, constituyendo un derecho del paciente y un deber del médico, pues las preferencias y los valores del enfermo son primordiales desde el punto de vista ético y supone que el objetivo del médico es respetar esta autonomía porque se trata de la salud del paciente.
Principio de beneficencia
Obligación de actuar en beneficio de otros, promoviendo sus legítimos intereses y suprimiendo perjuicios. En medicina, promueve el mejor interés del paciente pero sin tener en cuenta la opinión de éste. Supone que el médico posee una formación y conocimientos de los que el paciente carece, por lo que aquél sabe (y por tanto, decide) lo más conveniente para éste. Es decir "todo para el paciente pero sin contar con él".
Un primer obstáculo al analizar este principio es que desestima la opinión del paciente, primer involucrado y afectado por la situación, prescindiendo de su opinión debido a su falta de conocimientos médicos. Sin embargo, las preferencias individuales de médicos y de pacientes pueden discrepar respecto a qué es perjuicio y qué es beneficio. Por ello es difícil defender la primacía de este principio, pues si se toman decisiones médicas desde éste, se dejan de lado otros principios válidos como la autonomía o la justicia.
Principio de no maleficencia (Primum non nocere)
Abstenerse intencionadamente de realizar acciones que puedan causar daño o perjudicar a otros. Es un imperativo ético válido para todos, no sólo en el ámbito biomédico sino en todos los sectores de la vida humana. En medicina, sin embargo, este principio debe encontrar una interpretación adecuada pues a veces las actuaciones médicas dañan para obtener un bien. Entonces, de lo que se trata es de no perjudicar innecesariamente a otros. El análisis de este principio va de la mano con el de beneficencia, para que prevalezca el beneficio sobre el perjuicio.
Las implicaciones médicas del principio de no maleficencia son varias: tener una formación teórica y práctica rigurosa y actualizada permanentemente para dedicarse al ejercicio profesional, investigar sobre tratamientos, procedimientos o terapias nuevas, para mejorar los ya existentes en vistas a que sean menos dolorosos y lesivos para los pacientes; avanzar en el tratamiento del dolor; evitar la medicina defensiva y con ello, la multiplicación de procedimientos y/o tratamientos innecesarios.
Principio de justicia
Tratar a cada uno como corresponda con la finalidad de disminuir las situaciones de desigualdad (ideológica, social, cultural, económica, etc.) En nuestra sociedad, aunque en el ámbito sanitario la igualdad entre todos los hombres es sólo una aspiración, se pretende que todos sean menos desiguales, por lo que se impone la obligación de tratar igual a los iguales y desigual a los desiguales para disminuir las situaciones de desigualdad.
El principio de justicia lo podemos desdoblar en dos: un principio formal (tratar igual a los iguales y desigual a los desiguales) y un principio material (determinar las características relevantes para la distribución de los recursos sanitarios: necesidades personales, mérito, capacidad económica, esfuerzo personal, etc.)
Las políticas públicas se diseñan de acuerdo a ciertos principios materiales de justicia. En España por ejemplo, la asistencia sanitaria es teóricamente universal y gratuita, por tanto basada en el principio de la necesidad. En cambio, en Estados Unidos la mayoría de la asistencia sanitaria de la población está basada en los seguros individuales contratados con compañías privadas de asistencia médica.
Para excluir cualquier tipo de arbitrariedad es necesario determinar qué igualdades o desigualdades se van a tener en cuenta para determinar el tratamiento que se va a dar a cada uno. El enfermo espera que el médico haga todo lo posible en beneficio de su salud. Pero también debe saber que las actuaciones médicas están limitadas por una situación impuesta al médico, como intereses legítimos de terceros.
La relación médico-paciente se basa fundamentalmente en los principios de beneficencia y de autonomía, pero cuando estos principios entran en conflicto, a menudo por la escasez de recursos, es el principio de justicia el que entra en juego para mediar entre ellos. En cambio, la política sanitaria se basa en el principio de justicia, y será tanto más justa en cuanto que consiga una mayor igualdad de oportunidades para compensar las desigualdades.
Ámbitos de la Bioética
Problemas éticos derivados de las profesiones sanitarias: transfusiones de sangre,eutanasia, trasplantes de órganos, reproducción asistida o mediante fertilización in Vitro, aborto, todos los asuntos implicados en la relación médico-paciente.
Problemas de la investigación científica, en particular la investigación biomédica, que tanto pueden transformar al hombre: manipulación genética, tecnologías reproductivas como la clonación, etc.
Los problemas ecológicos, del medio ambiente y la biosfera: necesidad de conservación del medio ambiente, como mantener el equilibrio entre las especies y el respeto hacia los animales y la naturaleza, impedir el uso de energía nuclear, controlar el crecimiento de la población mundial y el incremento del hambre en los países pobres, etc.
Influencia social y política de las cuestiones anteriores, en cuanto a legislación, educación, políticas sanitarias, etc
División de la bioética
Es claro que el enfoque que se dé a la fundamentación (bioética general) condicionará las posibles soluciones que se ofrezcan a los dilemas (bioética especial). Así ocurre con el rechazo de la eutanasia en un modelo bioético basado en la búsqueda de la verdad sobre el hombre y en el reconocimiento y respeto de su especial dignidad, o –por el contrario- la entusiasta aceptación de la eutanasia en los modelos relativistas basados en la autonomía absoluta de la libertad individual.
En ocasiones se habla de bioética clínica o toma de decisiones. En ella se examinan dilemas nacidos en el ejercicio asistencial de la medicina, analizándose los valores éticos en juego y los medios concretos disponibles para resolver el conflicto de la mejor manera. Si bien el caso particular presenta matices a considerar y priorizar, la conducta no debería entrar en contradicción con los valores utilizados en la bioética en general.
BIOPOLÍTICA
Puede pensarse que la definición con lleva cierta antiguedad, puesto que todos los grupos que han disfrutado de poder en el pasado han usado las capacidades humanas para sus objetivos. Sin embargo, los Estados preindustriales gestionaban unos hechos que consideraban naturales, como el número de habitantes de un territorio y su estado de salud; si acaso, estimulaban su reproducción con medidas fiscales o reconociendo la contribución de las familias numerosas al bien de la comunidad. En cambio, una época industrial y postindustrial (es decir, aquella donde la industria ha dejado de ser la fuente principal de generación de riqueza y puestos de trabajo, porque esta función recae en el sector terciario, los servicios o cuaternario y la investigación científica y tecnológica) parte de realidades creadas y desarrolladas por los mismos Estados. Frente a unos seres humanos dejados a las fuerzas del azar y el medio ambiente, en la era biopolítica encontramos una biología distinta, disciplinada y sometida a las capacidades de las autoridades para intervenir a favor o en contra de la expansión de los sujetos.
NEURONAS
Las neuronas tienen un gran número de extensiones llamadas dendritas . A menudo parecen como ramas o puntos extendiéndose fuera del cuerpo celular. Las superficies de las dendritas son principalmente lugar donde se reciben los mensajes químicos de otras neuronas.
Al final del axón está la terminación del axón , que recibe una variedad de nombres como terminación, botón sináptico, pié del axón , y otros (!No se por que nadie ha establecido un término consistente!). Es allí donde la señal electroquímica que ha recorrido la longitud del axón se convierte en un mensaje químico que viaja hasta la siguiente neurona. Entre la terminación del axón y la dendrita de la siguiente neurona hay un pequeño salto llamado sinapsis (o salto sináptico, o grieta sináptica), sobre la cual discutiremos un poco. Para cada neurona, hay entre 1000 y 10.000 sinapsis.
El potencial de acción
La superficie del axón contiene cientos de miles de minúsculos mecanismos llamados bombas de sodio . Cuando la carga entra en el axón, las bombas de sodio a la base del axón hacen que los átomos de sodio entren en el axón, cambiando el balance eléctrico entre dentro y fuera. Esto causa que la siguiente bomba de sodio haga los mismo, mientras que las anteriores bombas retornan el sodio hacia fuera, y así en todo el recorrido hacia abajo del axón.
¡El potencial de acción viaja a una media de entre 2 y 400 kilómetros por hora!
La sinapsis
El neurotransmisor actúa como una pequeña llave, y el lugar receptor como una pequeña cerradura. Cuando se encuentran, abren un camino de paso para los iones, los cuales cambian el balance de iones fuera y dentro de la siguiente neurona. Y el proceso completo comienza de nuevo.
Mientras que la mayoría de los neurotransmisores son excitatorios – p. Ej. Excitan la siguiente neurona – también hay neurotransmisores inhibitorios. Estos hacen más difícil para los neurotransmisores excitatorios tener su efecto.
Aunque hay muchos tipos diferentes de neuronas, hay tres grandes categorías basadas en su función:
1. Las neuronas sensoriales son sensibles a varios estímulos no neurales. Hay neuronas sensoriales en la piel, los músculos, articulaciones, y órganos internos que indican presión, temperatura, y dolor. Hay neuronas más especializadas en la nariz y la lengua que son sensibles a las formas moleculares que percibimos como sabores y olores. Las neuronas en el oído interno nos proveen de información acerca del sonido, y los conos y bastones de la retina nos permiten ver.
2. Las neuronas motoras son capaces de estimular las células musculares a través del cuerpo, incluyendo los músculos del corazón, diafragma, intestinos, vejiga, y glándulas.
3. Las interneuronas son las neuronas que proporcionan conexiones entre las neuronas sensoriales y las neuronas motoras, al igual que entre ellas mismas. Las neuronas del sistema nervioso central, incluyendo al cerebro, son todas interneuronas.
La mayoría de las neuronas están reunidas en “paquetes” de un tipo u otro, a menudo visible a simple vista. Un grupo de cuerpos celulares de neuronas, por ejemplo, es llamado un ganglio o un núcleo. Una fibra hecha de muchos axones se llama un nervio . En el cerebro y la médula espinal, las áreas que están compuestas en su mayoría por axones se llaman materia blanca , y es posible diferenciar vías o tractos de esos axones. Las áreas que incluyen un gran número de cuerpos celulares se llaman materia gris .
CONCLUSION
no conocia demasiado sobre el tema, por lo que casi se podria decir que eh empezado desde cero. he ido descubriendo muchisimas cosas en el camino y cambiando mi idea de como tenia que ser el trabajo. me pensaba, que tendria poco, consistencia, pero ha estado mas fascinante de lo que imaginaba, y cada detalle puede ser una nueva pregunta que puede desencadenar en otra.
Es dificil, pero entretenido e incluso divertido investigar y formularse nuevas preguntas a partir de los nuevos conocimientos adquiridos, creo que asi adelantada la ciencia y me ha gustado mucho la idea de poder hacer un trabajo de busqueda, por el echo que enseña , aunque solo sea algo, a aprender investigando, y asi poder conocer el placer de aprender mas y mas cosas por uno mismo.
http://es.wikipedia.org/wiki/Nanotecnolog%c3%ADa
http://www.monsato.es/la-biotecnolog/por-qe-es-importante-la-biotecnolog/por-qu-es-importante-la-boitecnolog
http://es.wikipedia.org/wiki/biotecnolog%c3%ADa
http://www.elmundo.es/especiales/2003/03/sociedad/hacia_la_igualdad/noticias/2001/03noticia1984.html
http://elproyectomatriz.wordpress.com/2008/02/04microchips-en-humanos-una-realidad/
http://www.noticiacristiana.com/cinecia_tecnologia/2006/12/compania-aconseja-a-bush-implantar-chips-a-imigrantes-para-mantenerlos-controlados.html
http://www.prisionplanet.com/articles/april2004/040704bajabeachclub.html
http://divulgamat.ehu.es/weborriak/Cultura/Paginas/01112006.asp
http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica
http://www.monografias.com/trabajos37/tecnologias-comunicacion/tecnologias-comunicacion.shtml#queson
http://es.wipidia.org/wiki/Tecnolog%C3%ADas_de_informaci%C3%B3n_y_comunicaci%C3%B3n
GENES
GENES
Un gen es una secuencia lineal organizada de nucleótidos en la molécula de ADN (o ARN en el caso de algunos virus), que contiene la información necesaria para la síntesis de una macromolécula con función celular específica, normalmente proteínas, pero también ARNm, ARN ribosómico, ARN de transferencia y ARN pequeños.
Esta función puede estar vinculada al desarrollo o funcionamiento de una función fisiológica. El gen es considerado como la unidad de almacenamiento de información genética y unidad de herencia al transmitir esa información a la descendencia. Los genes se disponen, pues, a lo largo de ambas cromátidas de los cromosomas ocupando en el cromosoma una posición determinada llamada locus. El conjunto de genes de una especie, y por tanto de los cromosomas que los componen, se denomina genoma.
Historia
El concepto de gen ha ido variando a lo largo del tiempo, conforme ha avanzado la ciencia que lo estudia, la genética:
Regor Mendel en sus experimentos propuso la idea original del gen, aunque él no los denominó genes, sino factores, y vendrían a ser los responsables de la transmisión de los caracteres de padres a hijos (lo que ahora llamamos genotipo). El gen mendeliano es una unidad de función, estructura, transmisión, mutación y evolución que se distribuye ordenada y linealmente en los cromosomas.
La palabra gen fue acuñada en 1909 por el botánico danés Wilhelm Ludwig Johannsen a partir de una palabra griega que significa "generar", refiriéndose a la unidad física y funcional de la herencia biológica acia 1950, se impuso el concepto de gen como la cadena de ADN que dirige la síntesis de una proteína. Éste es un concepto que proporciona una naturaleza molecular o estructural al gen. El gen codifica proteínas y debe tener una estructura definida por el orden lineal de sus tripletes.
Más tarde surge el concepto de gen como “la cadena de ADN capaz de dirigir la síntesis de un polipéptido”. Este concepto surge al comprobar que la mayoría de las proteínas están formadas por más de una cadena polipeptídica y que cada una de ellas está codificada por un gen diferente.
Actualmente se sabe que algunos genes codifican más de un polipéptido y que una proteína puede ser codificada por el conjunto de diferentes genes. La existencia de genes solapantes y el procesamiento alternativo rebaten la hipótesis de un gen -> un polipéptido. Más bien debe proponerse la relación inversa, un polipéptido -> un gen. Además existen algunos genes que no codifican proteínas sino ARN con función propia (ARN transferentes y ARN ribosómicos, por ejemplo) y que no se traducen, por lo que no es necesaria la traducción para que un gen tenga una función determinada. El gen es, pues, la unidad mínima de función genética, que puede heredarse.
Tipos de genes
Un gen es una secuencia o segmento de ADN necesario para la síntesis de ARN funcional, como el ARN de transferencia o el ARN ribosomal. Sin embargo, estos dos tipos de ARN no codifican proteínas, lo cual es hecho por el ARN mensajero. Para ello, la transcripción genera una molécula de ARN que posteriormente sufrirá traducción en los ribosomas, proceso por el cual se genera una proteína. Muchos genes se encuentran constituidos por regiones codificantes (exones) interrumpidas por regiones no codificantes (intrones) que son eliminadas en el procesamiento del ARN. En células procariontes esto no ocurre pues los genes de procariotas carecen de intrones. La secuencia de bases presente en el ARN determina la secuencia de aminoácidos de la proteína por medio del código genético.Otros genes no son traducidos a proteína, sino quecumplen su función en forma de ARN. Entre éstos, encontramos genes de ARN transferente, ARN ribosómico, ribozimas y otros ARN pequeños de funciones diversas.Algunos genes han sufrido procesos de mutación u otros fenómenos de reorganización y han dejado de ser funcionales, pero persisten en los genomas de los seres vivos. Al dejar de tener función, se denominan pseudogenes, y pueden ser muy parecidos a otros genes del mismo organismo que sean funcionales.
Estos aminoácidos contienen grupos neutros, es decir sin carga, por lo que pueden formar puentes de hidrógeno con el agua. A la glicina algunas veces se le clasifica como aminoácido no polar, debido a que el grupo R consiste en un simple átomo de hidrógeno, demasiado pequeño como para afectar la polaridad de los grupos alfa amino y alfa carboxilo. En los amino serina, treonina y ceronina, la polaridad se debe a la presencia de grupo carboxilo (-COOH) en el caso de la asparagina y de la glutamina.
Cambios en los genes
Los organismos diploides (entre ellos, casi todos los animales y plantas) disponen de dos juegos de cromosomas homólogos, cada uno de ellos proveniente de uno de los padres. Cada par de cromosomas tiene, pues, un par de copias de cada gen, una procedente de la madre y otra del padre.
Algunas enfermedades como la anemia drepanocítica (o anemia falciforme) pueden ser ocasionadas por un cambio en un solo gen (uno de los 30.000 genes que constituyen el plan para todo el cuerpo humano).
Dentro de una población de una especie, los genes pueden aparecer en versiones diferentes, con variaciones pequeñas en su secuencia, y entonces se los denomina alelos (otro, en griego). Cada una de las alternativas que puede tomar un gen dentro de la población es un alelo. Los alelos pueden ser dominantes o recesivos. Cuando una sola copia del alelo hace que se manifieste el rasgo fenotípico, el alelo es dominante. Cuando son precisas dos copias del alelo (una en cada cromosoma del par) para que se manifieste su efecto, el alelo es recesivo.
Entorno del programa genético
Toda molécula tiende a degradar su estado de carga neutra, siendo el momento de manifestar la carga cuando la degradación se manifiesta en la pérdida de un electrón o en su ganancia. En esto interactúan los factores externos e internos de la molécula con el medio. Dado el caso de dos moléculas con carga idéntica y opuesta, tendrán la tendencia a neutralizar la carga formando enlaces químicos. Dichos enlaces pueden ser covalentes. La tendencia más favorable se la denomina 'Gancho' (hook en inglés), y es la equivalente en nuestras dimensiones a la tendencia de ciertas semillas naturales a engancharse al pelo de los animales o incluso a nuestros calcetines.
La dinámica entre el ejemplo y la dimensión molecular es paralela, en los siguientes casos: No existe premeditación en la colocación de la semilla ni el lugar que ocupe la molécula en un momento dado de tiempo. No es evidente en la naturaleza un Ego intencional que determine a la semilla si acaba o no enganchada en el pelo del animal; al igual que tampoco hay razón para pensar de forma similar en el caso de dos moléculas, que coincidiendo en el espacio, tengan por estadística una probabilidad casi cierta de acabar enlazadas.
Bajo estas premisas, b y c se puede decir que funciona el programa genético. Un proceso totalmente autónomo promovido por la dinámica de la energía, del medio de las propiedades inherentes a cada objeto cuya descripción establece la física. Los cálculos físico-químicos ofrecen un planteamiento estadístico de previsiones en los resultados más favorables, determinados por la menor resistencia a la hora de expresar sus propiedades. Este determinismo resulta imponderable por los cálculos físicos. En conclusión, la expresión del programa genético es consecuencia del bien conocido Efecto mariposa.
Dentro de lo que es el programa genético, se puede afirmar que es la memoria de cómo en un pasado las especies estuvieron adaptadas a un medio distinto al actual, pudiendo suponer que las especies pasadas estaban mejor adaptadas que las actuales y entendiendo que los procesos de extinción de las especies son, por tanto, una expresión más de la selección natural.
La entropía asociada a la tendencia a la desorganización de la información hace aún más evidente este hecho.
Las proteínas fibrosas y globulares son heteroproteínas que consisten en capas.
Avances de la Genética
En el año 2003, los científicos que participaron en el proyecto Genoma Humano, que comenzó en 1990, completaron la secuencia de las casi 3.000 millones de "letras" que encierran las instrucciones genéticas humanas. Este importante logro cambiará la medicina para siempre, mientras los científicos avanzan rápidamente hacia su meta de identificar todos nuestros genes y saber qué función cumple cada uno.
Este logro llega después de dos décadas de rápido progreso en la genética humana, la rama de la biología que estudia la herencia. Los científicos han descubierto muchos genes que cumplen funciones importantes en las enfermedades humanas
Por ejemplo, el defecto genético responsable de la forma hereditaria de retraso mental más común, el síndrome de X frágil, fue identificado por becarios de March of Dimes. Otros hallazgos identificaron mutaciones (cambios) genéticas específicas responsables por:
La fibrosis quística, un trastorno de los pulmones y del sistema digestivo que suele ser fatal.
La acondroplasia, una forma de enanismo.
Las neurofibromatosis, enfermedades hereditarias del sistema nervioso.
La Retinitis pigmentosa, un grupo de condiciones hereditarias que causan la pérdida de la visión.
Algunas formas hereditarias de enfermedad cardíaca.
El cáncer de mama y colon familiar.
El ritmo de estos descubrimientos debería acelerarse ahora que los científicos tienen un catálogo casi completo de nuestros genes.
dentificar los genes que causan las enfermedades puede ser un primer paso hacia el desarrollo de tratamientos científicos, como nuevas drogas o terapias con genes, en las que se utiliza un gen sano para reemplazar uno ausente o defectuoso.
Saber más sobre nuestra constitución genética seguramente permitirá desarrollar también un método más individualizado de medicina preventiva. Es posible que pueda someterse a cada persona a determinadas pruebas para saber si es especialmente susceptible a ciertas enfermedades y así poder tomar las medidas necesarias para prevenirlas.
ÁTOMO
La teoría aceptada hoy es que el átomo se compone de un núcleo de carga positiva formado por protones y neutrones, en conjunto conocidos como nucleón, alrededor del cual se encuentra una nube de electrones de carga negativa.
El núcleo atómico
Artículo principal: Núcleo atómico
El núcleo del átomo se encuentra formado por nucleones, los cuales pueden ser de dos clases:
Protones: Partícula de carga eléctrica positiva igual a una carga elemental, y 1,67262 × 10–27 kg y una masa 1837 veces mayor que la del electrón.
Neutrones: Partículas carentes de carga eléctrica y una masa un poco mayor que la del protón (1,67493 × 10–27 kg).
El núcleo más sencillo es el del hidrógeno, formado únicamente por un protón. El núcleo del siguiente elemento en la tabla periódica, el helio, se encuentra formado por dos protones y dos neutrones. La cantidad de protones contenidas en el núcleo del átomo se conoce como número atómico, el cual se representa por la letra Z y se escribe en la parte inferior izquierda del símbolo químico. Es el que distingue a un elemento químico de otro. Según lo descrito anteriormente, el número atómico del hidrógeno es 1 (1H), y el del helio, 2 (2He).
La cantidad total de nucleones que contiene un átomo se conoce como número másico, representado por la letra A y escrito en la parte superior izquierda del símbolo químico. Para los ejemplos dados anteriormente, el número másico del hidrógeno es 1(1H), y el del helio, 4(4He).
Existen también átomos que tienen el mismo número atómico, pero diferente número másico, los cuales se conocen como isótopos. Por ejemplo, existen tres isótopos naturales del hidrógeno, el protio (1H), el deuterio (2H) y el tritio (3H). Todos poseen las mismas propiedades químicas del hidrógeno, y pueden ser diferenciados únicamente por ciertas propiedades físicas.
Otros términos menos utilizados relacionados con la estructura nuclear son los isótonos, que son átomos con el mismo número de neutrones. Los isóbaros son átomos que tienen el mismo número másico.
Debido a que los protones tienen cargas positivas se deberían repeler entre sí, sin embargo, el núcleo del átomo mantiene su cohesión debido a la existencia de otra fuerza de mayor magnitud, aunque de menor alcance conocida como la interacción nuclear fuerte.
Interacciones eléctricas entre protones y electrones
Antes del experimento de Rutherford la comunidad científica aceptaba el modelo atómico de Thomson, situación que varió después de la experiencia de Rutherford. Los modelos posteriores se basan en una estructura de los átomos con una masa central cargada positivamente rodeada de una nube de carga negativa.
Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los electrones se moverían alrededor del núcleo en órbitas. Este modelo tiene una dificultad proveniente del hecho de que una partícula cargada acelerada, como sería necesario para mantenerse en órbita, radiaria radiación electromagnética, perdiendo energía. Las leyes de Newton, junto con la ecuaciones de Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del orden de 10−10 s, toda la energía del átomo se habría radiado, con la consiguiente caída de los electrones sobre el núcleo.
Nube electrónica.
Nube de electrones
Alrededor del núcleo se encuentran los electrones que son partículas elementales de carga negativa igual a una carga elemental y con una masa de 9,10 × 10–31 kg
La cantidad de electrones de un átomo en su estado basal es igual a la cantidad de protones que contiene en el núcleo, es decir, al número atómico, por lo que un átomo en estas condiciones tiene una carga eléctrica neta igual a 0.
A diferencia de los nucleones, un átomo puede perder o adquirir algunos de sus electrones sin modificar su identidad química, transformándose en un ion, una partícula con carga neta diferente de cero.
El concepto de que los electrones se encuentran en órbitas satelitales alrededor del núcleo se ha abandonado en favor de la concepción de una nube de electrones deslocalizados o difusos en el espacio, el cual representa mejor el comportamiento de los electrones descrito por la mecánica cuántica únicamente como funciones de densidad de probabilidad de encontrar un electrón en una región finita de espacio alrededor del núcleo.
Dimensiones atómicas
La mayor parte de la masa de un átomo se concentra en el núcleo, formado por los protones y los neutrones, ambos conocidos como nucleones, los cuales son 1836 y 1838 veces más pesados que el electrón respectivamente.
El tamaño o volumen exacto de un átomo es difícil de calcular, ya que las nubes de electrones no cuentan con bordes definidos, pero puede estimarse razonablemente en 1,0586 × 10–10 m, el doble del radio de Bohr para el átomo de hidrógeno. Si esto se compara con el tamaño de un protón, que es la única partícula que compone el núcleo del hidrógeno, que es aproximadamente 1 × 10–15 se ve que el núcleo de un átomo es cerca de 100.000 veces menor que el átomo mismo, y sin embargo, concentra prácticamente el 100% de su masa.
Para efectos de comparación, si un átomo tuviese el tamaño de un estadio, el núcleo sería del tamaño de una canica colocada en el centro, y los electrones, como partículas de polvo agitadas por el viento alrededor de los asientos.sible dividir mediante procesos químicos.
Modelo de Dalton
Artículo principal: Modelo atómico de John Dalton
Fue el primer modelo atómico con bases científicas, fue formulado en 1808 por John Dalton, quien imaginaba a los átomos como diminutas esferas. Este primer modelo atómico postulaba:
La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir.
Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de los diferentes elementos tienen pesos diferentes.
Los átomos permanecen sin división, aún cuando se combinen en las reacciones químicas.
Los átomos, al combinarse para formar compuestos guardan relaciones simples.
Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de un compuesto.
Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
Sin embargo desapareció ante el modelo de Thomson ya que no explica los rayos catódicos, la radioactividad ni la presencia de los electrones (e-) o protones(p+).
Detalles del modelo atómico
Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una nube positiva que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras radiaciones.
“El átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose alrededor del núcleo en órbitas bien definidas.” Las órbitas están cuantizadas (los e- pueden estar solo en ciertas órbitas)
Cada orbita tiene una energía asociada. La más externa es la de mayor energía.
Los electrones no radian energía (luz) mientras permanezcan en órbitas estables.
Los electrones pueden saltar de una a otra orbita. Si lo hace desde una de menor energía a una de mayor energía absorbe un cuanto de energía (una cantidad) igual a la diferencia de energía asociada a cada orbita. Si pasa de una de mayor a una de menor, pierde energía en forma de radiación (luz).
El mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrógeno. Pero solo la luz de este elemento. Proporciona una base para el carácter cuántico de la luz, el fotón es emitido cuando un electrón cae de una orbita a otra, siendo un pulso de energía radiada. Bohr no puede explicar la existencia de órbitas estables y para la condición de cuantización. Bohr encontró que el momento angular del electrón es h/2π por un método que no puede justificar.
En el modelo de Schrödinger se abandona la concepción de los electrones como esferas diminutas con carga que giran en torno al núcleo, que es una extrapolación de la experiencia a nivel macroscópico hacia las diminutas dimensiones del átomo. En vez de esto, Schrödinger describe a los electrones por medio de una función de onda, el cuadrado de la cual representa la probabilidad de presencia en una región delimitada del espacio. Esta zona de probabilidad se conoce como orbital. La gráfica siguiente muestra los orbitales para los primeros niveles de energía disponibles en el átomo de hidrógeno.
GENÉTICA.
GENOMA
La secuencia de ADN que conforma el genoma humano contiene codificada la informacion necesaria para la expresion, altamente coordinada y adaptable al ambiente, del proteoma humano, es decir, del conjunto de proteinas del ser humano. Las proteinas, y no el ADN, son las principales biomoleculas efectoras; poseen funciones estructurales, enzimaticas, metabolicas, reguladoras, señalizadoras, organizandose en enormes redes funcionales de interacciones. En definitiva, el proteoma fundamenta la particular morfologia y funcionalidad de cada celula. Asi mismo, la organizacion estructural, y funcional de las distintas celulas conforma cada tejido y cada organo, y, finalmente el organismo vivo en su conjunto. Asi el genoma humano contiene la informaciòn necesaria para el desarrollo basico de un ser humano completo.
El genoma humano presenta una densidad de genes muy inferior a la que inicialmente se habia predicho, con solo en torno al 1,5% de su longitud compuesta por exones codificantes de proteinas. Un 70% esta compuesto por ADN extragenico y un 30% por msecuencias relacionadas con genes. Del total de ADN extragenico, aproximadamente un 70% corresponde a repeticiones dispersas, de manera que, mas o menos, la mitad del genoma humano corresponde a secuencias repetitivas del ADN. Por su parte, del total de ADN relacionado con genes se estima que el 95% corresponde a ADN no codificante: pseudogenes, fragmentos de genes, intrones, secuencias UTR...
Contenido en genes y tamaño del genoma de varios organismos
Especie
Tamaño del genoma (Mb)
Númerode genes
0,58
500
Streptococcus pneumoniae
2,2
2300
Escherichia coli
4,6
4.400
Saccharomyces cerevisiae
12
5.800
Caenorhabditis elegans
97
19.000
Arabidopsis thaliana
125
25.500
Drosophila melanogaster (mosca)
180
13.700
Oryza sativa (arroz)
466
45-55.000
Mus musculus (ratón)
2500
29.000
Homo sapiens (ser humano)
2900
27.000
CIENCIAS COGNITIVAS
TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN
Las TIC tiene como fin la mejora de la vida, son aparatos de comunicación.
En sociología y política, la expresión TIC se utilizapara mencionar los aparatos electrónicos con fines de comunicación con fianalidades concretas com, por ejemplo:
-Organizacióny gestión empresarial
-Decidir
Por ello, para las ciencias socialesy analistas de tendencias, las TIC no se refieren a la implementación tecnológicas concreta, sino de aquellos otros valores intangibles que son el estudio propio de dichas disciplinas.
¿Qué son las TICs y cuales son sus inicios?
Las tecnologías de la información y de la cominicación (TIC) -la unión de los computadores y las comunicaciones- desataron una explosión sin precedentes de formas de comunicarse al comienzo de los años 90s. A partir de ahí, la internet pasó de ser un instrumento especializado de la comunidad científica a ser una red de facil uso que modificó las pauta de interacción social.
Por Tecnologías de la información o Tecnologías de la información y de la comunicación(TIC) se entiende un termino dilatado empleado para designar lo relativo a la informática conectada a Internet, y especialmente el aspecto social de éstos. Ya que las nuevas tecnologías de la información y comonicación designa a la vez un conjunto de innovaciones tecnológicas pero también las herramientas que permiten una redefinición radical del funcionamiento de la sociedad; Un buen ejemplo de la influencia de los TIC sobre la sociedad es el gobierno electrónico.
En resumen las nuevas tecnologías de la Información y Comunicación son aquellas herramientas computacionales e informáticas que procesan, almacenan, sintetizan, recuperan y presentan información representada de la más variada forma. Es un conjunto de herramientas, soportantes y canales para el tratamiento yacceso a la información. Constituyen nuevos soportes y canales para dar forma, registrar, almacenar, y difundir contenidos informacionales. Algunos ejemplos de estas tecnológias son la pizarra digital (ordenador personal + proyecto multimedia), los blogs, el podcast y por supuesto la web.
Por todo tipo de aplicaciones educativas las TIC son medios y no fines. Es decir, son herramientas y materiales de construcción que facilitan el aprendizaje, el desarrollo de habilidades y distintas formas de aprender, estilos y ritmos de los aprendices.
¿Cuáles son las ventajas y desventajas de las TICs?
Si bien es cierto que la necesidades d comunicarse hace mas notorio el carácter indispensable del conocimiento sobre las tecnologías de información y comunicación y la aplicación de éstas en distintos ámbitos de la vida humana, se hace necesario también reconocer las repercusiones que traerá consigo la utilización de estas nuevas tecnologías ya sean benéficas o perjudiciales.
A continuación se mostrarán algunas de las ventajas y desventajas que origina el empleo de las TICs en el desarrollo de las actividades humanas.
-Ventajas:
Las ventajas reconocibles en torno a las relaciones existentes entre el incremento en la producción y difusión de nuevas tecnologías y las posibilidades que las empresas tienen de acceder a conocerlas y utilizarlas conocimiento de los factores endógenos y exógenos que inciden en la apropiación de las innovaciones tecnológicas por parte de las empresas trae a cuenta que los procesos de innovación social que moviliza las capacidades de la organización, constituyéndose en una instancia de generación de conocimiento que remite a los saberes que se recrean en diferentes áreas de la empresa, en un proceso dinámico, continuo y acumulativo;que modifica y reelavora las competencias organizativas.
Otras ventajas que podemos mencionar son las siguientes:
-Brindar grandes beneficios y adelantos en salud y educación;
-Potenciar a las personas y actores sociales, ONG, etc., a través de redes de apoyo e intercambio y lista de discusión.
-Apoyar a las PYME de las personas empresarias locales para presentar y vender sus productos a través de la Internet.
-Permitir nuevos conocimientos para la empleabilidad que requieren muchas competencias (integración, trabajo en equipo, motivación, disciplina, etc).
-Ofrecer nuevas formas de trabajo, como teletrabajo.
-Dar acceso al flujo de conocimientos e información para empoderar y mejorar las vidas de las personas.
-Facilidades
-Exactitud
-Menores riesgos
-Menores costos
-Desventajas:
-los beneficios de esta revolución no están distribuidos de manera equitativa; junto con el crecimiento de la red Internet ha surgido un nuevo tipo de pobreza que separa los países en desarrollo de la información, dividiendo los educandos de los analfabetos, los ricos de los pobres, los jovenes de los viejos, los habitantes urbanos de los rurales, diferenciando en todo momento a las mujeres de los varones. Según se afirmaen el informesobre el empleo en el mundo 2001 de la OIT "la vida en el trabajo en la economía de la información", aunque el rápido desarrollo de la tecnología de la información y la comunicación (TIC) constituye una "revolución en ciernes" existen entre "los ricos y los pobres" tecnológicos.
El internauta típico a escala mundial es hombre, de alrededor de 36años de edad, con educación universitaria, ingresos elevados, que vive en una zona urbana y habla inglés. En esta contexto, las mujeres latinoamericanas- y especialmente aquéllas de ingresos bajos que viven en zonas rurales - tienen que enfrentar un doble- o un triple- desafio para estar incluidas y conectadas en el desarrollo de la aldea global de las TICs.
Otras desventajas que se pueden observar en la utilizaciónde las tecnologías de información y comunicación son:
-Falta de privacidad
-Aislamiento
-fraude
-Merma los puestos de trabajo
¿Cuales son las características de las TICs?
Las tecnologías de información y comunicación tiene como caraterísticas princiàles las siguientes:
-Son de carácter innovador y creativo, pues dan acceso ha nuevas formas de comunicación.
-Tiene mayor influencia y beneficia en mayor proporción al área educativa ya que las hace mas accesible y dinámica.
-Son considerados temas de debate público y político, pues su utilización implica un futuro prometedor.
-Se relacionan con mayor frecuencia con el uso de la Internet y la informática.
-Afectan a numerosos ámbitos de la ciencia humana como la sociología, la teoría de las organizaciones o la gestión.
-En America Latina se destacan con su utilización en las universidades e instituciones paises como: Argentina y México, en Europa: España y Francia.
-Las nuevas tecnologías son:
-Internet
-Robótica
-Computadoras de propósito específico
-Dinero electrónico.
-Resulta un gran alivio económico a largo plazo, aunque en el tiempo de adquisición resulte una fuerte inversión
-Constituyen medio de comunicación y adquisición de información de toda variedad, inclusive científica, alos cuales las personas pueden acceder por sus propios medios, es decir potencian la educación a distancia en la cual es casi una necesidad del alumno tener poder llegar a toda la información posible generalmente solo, con una ayuda mínima del profesor.
ADN Y ARN
ADN: Acido Desoxirribonucleico, es un acido nucleico constituido por un gran numero de nucleotidos unidos y dispuestos en dos hélice. Constituye un material cromosomico y contiene toda la información hereditaria correspondiente a la especie.
ADN: (T) timina, (C) citosina, (G) guanina y (A) adenina. Es importante resaltar que asi como hay regiones con funcion conocida o supuesta (los genes), sucede que casi la mitad del ADN del genoma humano consiste de regiones (intrones) con funcion hasta hoy desconocida y que tiene una secuencia de nucleotidos repetitiva en muchos casos pero con patrones hipervariables en muchas regiones del genoma.