Información

Cálculos biológicos


(a) En el momento de la fecundación, un óvulo hembra tiene aproximadamente 100 μm de diámetro. Suponiendo que cada molécula de lípidos en la membrana plasmática tiene un área de superficie de 10-14 cm2, ¿cuántas moléculas de lípidos hay en la membrana plasmática del huevo si el 25% de la superficie es proteína?

(b) Cada óvulo fertilizado (cigoto) se divide 30 veces para producir todos los óvulos que una niña necesitará en su vida. Uno de estos huevos será fertilizado dando lugar a una nueva generación. Si las moléculas de lípidos nunca se degradan, ¿cuántas moléculas de lípidos ha heredado que fueron sintetizadas en su abuela? Suponga, a efectos de cálculo, que las moléculas de lípidos sintetizadas por su abuela se dividen por igual entre las células hijas en cada división celular.

Mi respuesta: (a) Dado, un huevo hembra tiene aproximadamente 100 μm de diámetro. Radio = 50μm Cada molécula de lípido en la membrana plasmática tiene un área de superficie de 10-14 cm2. El 25% de la superficie del huevo es proteína y el 75% de la superficie son lípidos. Por lo tanto, el área de la superficie del huevo es = 4π (radio) 2 = 4 * 3.14 * 2500 * 10-12 = 3.14 * 10-8 m2 Área para la presencia de moléculas de lípidos = 3.14 * 10-8 * 3/4 ​​= 2.355 * 10-8 m2 = 2.355 * 10-8 * 104 cm2 Número de moléculas de lípidos en la membrana plasmática del huevo = 2.355 * 10-4 / 10-14 = 2.355 * 1010 moléculas

(b) Cada óvulo fertilizado se divide 30 veces en 2,4,8… 230 células. Suponiendo que las moléculas de lípidos sintetizadas por nuestra abuela se dividan por igual entre las células hijas en cada división celular. • Después de 30 divisiones, tenemos 230 células sintetizadas en la abuela. Inicialmente, el cigoto tiene 2.355 * 1010 moléculas de lípidos de los cálculos anteriores. Por lo tanto, cada celda tiene 2.355 * 1010/230 = 21.93 moléculas. • Después de que la madre nace, hereda las moléculas de lípidos presentes en el cigoto, es decir, una sola célula.

El número de moléculas de lípidos que la madre hereda de la abuela es de 21,93 moléculas.

Este cigoto se somete a división 30 veces. Por lo tanto, cada célula hereda = 21,93 / 230 = 2,0424 * 10-8 moléculas de lípidos del cigoto

• Finalmente, una sola célula de la madre sufre la formación del cigoto que conduce a nuestro nacimiento.

Por lo tanto, tenemos 2.0424 * 10-8 moléculas de lípidos heredadas de nuestra abuela.

¿Alguien puede confirmarlo?


Creo que casi todo es correcto excepto la última parte.

La razón por la que uno puede pasar por alto fácilmente esa parte es que heredamos las 22 moléculas completas de nuestra madre, quien heredó las 2,35 * 10 ^ 10 moléculas completas de su abuela cigoto. La abuela le dio todo a su hija y ese número se distribuyó en todas las celdas del cuerpo de mamá, que es 22 por celda. Estas 22 moléculas de lípidos las heredaríamos de nuestra madre, por lo que la respuesta parece ser 22 lógicamente.

Esto se puede entender fácilmente como se indica a continuación:

2.35 * 10 ^ 10 -> De abuela a mami 22 -> De mami a nosotros

Espero que esto tenga sentido… ¡Gracias!


Análisis de poder

Antes de realizar un experimento, debe realizar un análisis de potencia para estimar la cantidad de observaciones que necesita para tener una buena probabilidad de detectar el efecto que está buscando.

Introducción

Cuando diseñe un experimento, es una buena idea estimar el tamaño de muestra que necesitará. Esto es especialmente cierto si está proponiendo hacer algo doloroso para los humanos u otros vertebrados, donde es particularmente importante minimizar el número de individuos (sin hacer que el tamaño de la muestra sea tan pequeño que todo el experimento sea una pérdida de tiempo y sufrimiento). o si está planeando un experimento costoso o que requiere mucho tiempo. Se han desarrollado métodos para muchas pruebas estadísticas con el fin de estimar el tamaño de la muestra necesario para detectar un efecto particular, o para estimar el tamaño del efecto que se puede detectar con un tamaño de muestra particular.

Para hacer un análisis de potencia, debe especificar un tamaño de efecto. Este es el tamaño de la diferencia entre su hipótesis nula y la hipótesis alternativa que espera detectar. Para la investigación biológica aplicada y clínica, puede haber un tamaño de efecto muy definido que desee detectar. Por ejemplo, si está probando un nuevo champú para perros, el departamento de marketing de su empresa puede decirle que producir el nuevo champú solo valdría la pena si los abrigos de los perros fueran al menos un 25% más brillantes, en promedio. Ese sería el tamaño de su efecto y lo usaría para decidir cuántos perros necesitaría pasar por el reflectómetro canino.

Cuando realiza una investigación biológica básica, a menudo no sabe qué tan grande es la diferencia que está buscando, y la tentación puede ser simplemente usar el tamaño de muestra más grande que pueda pagar, o usar un tamaño de muestra similar al de otras investigaciones en su campo. . Aún debe hacer un análisis de potencia antes de hacer el experimento, solo para tener una idea de qué tipo de efectos podría detectar. Por ejemplo, algunos fanáticos de la lucha contra las vacunas han propuesto que el gobierno de los EE. UU. Realice un gran estudio de niños vacunados y no vacunados para ver si las vacunas causan autismo. No está claro qué tamaño del efecto sería interesante: ¿un 10% más de autismo en un grupo? 50% más? ¿dos veces más? Sin embargo, hacer un análisis de poder muestra que incluso si el estudio incluyó cada niño no vacunado en los Estados Unidos de 3 a 6 años, y un número igual de niños vacunados, tendría que haber un 25% más de autismo en un grupo para tener una alta probabilidad de ver una diferencia significativa. Un estudio más plausible, de 5,000 niños no vacunados y 5,000 niños vacunados, detectaría una diferencia significativa con un poder alto solo si hubiera tres veces más autismo en un grupo que en el otro. Porque es poco probable que exista una diferencia tan grande en el autismo entre niños vacunados y no vacunados, y porque no encontrar una relación con un estudio de este tipo no convencería a los fanáticos de la lucha contra la vacunación de que no existe una relación (nada los convencería de que no hay relación y mdash, eso es lo que los vuelve locos), el análisis de poder le dice que un estudio tan grande y costoso no valdría la pena.

Parámetros

Hay cuatro o cinco números involucrados en un análisis de poder. Debes elegir los valores para cada uno antes de hacer el análisis. Si no tiene una buena razón para usar un valor en particular, puede probar diferentes valores y observar el efecto en el tamaño de la muestra.

Tamaño del efecto

El tamaño del efecto es la desviación mínima de la hipótesis nula que espera detectar. Por ejemplo, si está tratando a las gallinas con algo que espera que cambie la proporción de sexos de sus polluelos, puede decidir que el cambio mínimo en la proporción de sexos que está buscando es del 10%. Entonces diría que el tamaño de su efecto es del 10%. Si está probando algo para que las gallinas pongan más huevos, el tamaño del efecto podría ser de 2 huevos por mes.

Ocasionalmente, tendrá una buena razón económica o clínica para elegir un tamaño de efecto en particular. Si está probando un suplemento alimenticio para pollos que cuesta $ 1.50 por mes, solo le interesa saber si producirá más de $ 1.50 en huevos adicionales cada mes sabiendo que un suplemento produce 0.1 huevos adicionales al mes no es útil información para usted, y no necesita diseñar su experimento para averiguarlo. Pero para la mayoría de las investigaciones biológicas básicas, el tamaño del efecto es solo un buen número redondo que sacaste de tu trasero. Digamos que está haciendo un análisis de poder para un estudio de una mutación en una región promotora, para ver si afecta la expresión genética. ¿Qué cambio de expresión génica está buscando? ¿10%? 20%? 50%? Es un número bastante arbitrario, pero tendrá un efecto enorme en el número de ratones transgénicos que darán sus pequeñas y costosas vidas por su ciencia. Si no tiene una buena razón para buscar un tamaño de efecto en particular, también puede admitirlo y dibujar un gráfico con el tamaño de muestra en el eje X y el tamaño del efecto en el eje Y. G * Power hará esto por ti.

Alfa

Alfa es el nivel de significancia de la prueba (el PAG valor), la probabilidad de rechazar la hipótesis nula aunque sea verdadera (un falso positivo). El valor habitual es alfa = 0,05. Algunas calculadoras de potencia utilizan el alfa de una cola, que es confuso, ya que el alfa de dos colas es mucho más común. Asegúrese de saber cuál está utilizando.

Beta o poder

Beta, en un análisis de potencia, es la probabilidad de aceptar la hipótesis nula, aunque sea falsa (un falso negativo), cuando la diferencia real es igual al tamaño mínimo del efecto. El poder de una prueba es la probabilidad de rechazar la hipótesis nula (obtener un resultado significativo) cuando la diferencia real es igual al tamaño mínimo del efecto. La potencia es 1 y menos beta. No hay un consenso claro sobre el valor a usar, por lo que este es otro número que saca de su trasero: una potencia del 80% (equivalente a una beta del 20%) es probablemente la más común, mientras que algunas personas usan 50% o 90 %. El costo para usted de un falso negativo debería influir en su elección de potencia si realmente, realmente quiere estar seguro de que detecta el tamaño de su efecto, querrá usar un valor más alto para la potencia (beta más baja), lo que resultará en un tamaño de muestra mayor. Algunas calculadoras de energía le piden que ingrese a la versión beta, mientras que otras solicitan energía (1 y menosbeta). Asegúrese de comprender cuál necesita usar.

Desviación Estándar

Para las variables de medición, también necesita una estimación de la desviación estándar. A medida que aumenta la desviación estándar, es más difícil detectar una diferencia significativa, por lo que necesitará un tamaño de muestra más grande. Su estimación de la desviación estándar puede provenir de experimentos piloto o de experimentos similares en la literatura publicada. Es poco probable que su desviación estándar una vez que realice el experimento sea exactamente la misma, por lo que su experimento será algo más o menos poderoso de lo que había predicho.

Para las variables nominales, la desviación estándar es una función simple del tamaño de la muestra, por lo que no es necesario estimarla por separado.

Cómo funciona

Los detalles de un análisis de potencia son diferentes para diferentes pruebas estadísticas, pero los conceptos básicos son similares aquí. Usaré la prueba binomial exacta como ejemplo. Imagine que está estudiando las fracturas de muñeca y su hipótesis nula es que la mitad de las personas que se rompen una muñeca se rompen la derecha y la otra mitad la izquierda. Usted decide que el tamaño mínimo del efecto es del 10% si el porcentaje de personas que se fracturan la muñeca derecha es del 60% o más, o del 40% o menos, desea obtener un resultado significativo de la prueba binomial exacta. No tengo idea de por qué eligió el 10%, pero eso es lo que usará. Alpha es del 5%, como de costumbre. Quiere que la potencia sea del 90%, lo que significa que si el porcentaje de muñecas derechas rotas realmente es del 40% o del 60%, quiere un tamaño de muestra que arroje una (PAG& lt0.05) resultado el 90% de las veces, y un resultado no significativo (que sería un falso negativo en este caso) solo el 10% de las veces.

El primer gráfico muestra la distribución de probabilidad bajo la hipótesis nula, con un tamaño de muestra de 50 individuos. Si la hipótesis nula es cierta, verá que menos del 36% o más del 64% de las personas se rompen la muñeca derecha (un falso positivo) aproximadamente el 5% del tiempo. Como muestra el segundo gráfico, si el porcentaje verdadero es 40%, los datos de muestra serán menos del 36 o más del 64%, solo el 21% de las veces, obtendría un verdadero positivo solo el 21% de las veces, y un falso negativo el 79% del tiempo. Obviamente, un tamaño de muestra de 50 es demasiado pequeño para este experimento, solo produciría un resultado significativo el 21% de las veces, incluso si hay una proporción de 40:60 de muñecas rotas derecha e izquierda.

El siguiente gráfico muestra la distribución de probabilidad bajo la hipótesis nula, con un tamaño de muestra de 270 individuos. Para ser significativo en el PAG& lt0.05, el resultado observado tendría que ser menos del 43,7% o más del 56,3% de las personas que se rompen la muñeca derecha. Como muestra el segundo gráfico, si el porcentaje real es del 40%, los datos de muestra serán este extremo del 90% del tiempo. Un tamaño de muestra de 270 es bastante bueno para este experimento; produciría un resultado significativo el 90% de las veces si hay una proporción de 40:60 de muñecas rotas derecha e izquierda. Si la proporción de muñecas rotas derecha e izquierda está más lejos de 50:50, tendrá una probabilidad aún mayor de obtener un resultado significativo.

Ejemplos de

Planea cruzar guisantes que son heterocigotos para el color del guisante amarillo / verde, donde el amarillo es dominante. La proporción esperada en la descendencia es de 3 amarillos: 1 verde. Desea saber si los guisantes amarillos son en realidad más o menos aptos, lo que podría aparecer como una proporción de guisantes amarillos diferente a la esperada. usted arbitrariamente decida que desea un tamaño de muestra que detecte un significativo (PAG& lt0.05) diferencia si hay un 3% más o menos de guisantes amarillos de lo esperado, con una potencia del 90%. Probará los datos usando la prueba binomial exacta de bondad de ajuste si el tamaño de la muestra es lo suficientemente pequeño, o un GRAMOPrueba de bondad de ajuste si el tamaño de la muestra es mayor. El análisis de potencia es el mismo para ambas pruebas.

Usando G * Power como se describe para la prueba exacta de bondad de ajuste, el resultado es que se necesitarían 2109 plantas de guisantes si desea obtener un resultado significativo (P & lt0.05) el 90% de las veces, si la proporción verdadera de guisantes amarillos es 78%, y 2271 guisantes si la proporción real es 72% amarillos. Como le interesaría una desviación en cualquier dirección, utilice el número más grande, 2271. Son muchos guisantes, pero le tranquiliza ver que no es un número ridículo. Si desea detectar una diferencia de 0.1% entre el número esperado y observado de guisantes amarillos, puede calcular que necesitará 1,970,142 guisantes si eso es lo que necesita detectar, el análisis del tamaño de la muestra le dice que va a tiene que incluir un robot clasificador de guisantes en su presupuesto.

Los datos de ejemplo para las dos muestras t& ndashtest muestra que la altura promedio a las 2 p.m. La sección de análisis de datos biológicos fue de 66.6 pulgadas y la altura promedio a las 5 p.m. sección era de 64,6 pulgadas, pero la diferencia no es significativa (PAG= 0,207). Desea saber cuántos estudiantes tendría que muestrear para tener un 80% de probabilidad de que una diferencia tan grande sea significativa. Usando G * Power como se describe en las dos muestras t& ndashtest página, ingrese 2.0 para la diferencia de medias. Usando la función STDEV en Excel, calcule la desviación estándar para cada muestra en los datos originales; es 4.8 para la muestra 1 y 3.6 para la muestra 2. Ingrese 0.05 para alfa y 0.80 para potencia. El resultado es 72, lo que significa que si las 5 p.m. los estudiantes eran dos pulgadas más cortos que las 2 p.m. estudiantes, necesitaría 72 estudiantes en cada clase para detectar una diferencia significativa el 80% del tiempo, si la verdadera diferencia es realmente de 2.0 pulgadas.

Cómo hacer análisis de potencia

G * Poder

G * Power es un excelente programa gratuito, disponible para Mac y Windows, que realizará análisis de potencia para una gran variedad de pruebas. Explicaré cómo usar G * Power para análisis de potencia para la mayoría de las pruebas en este manual.

R Companion de Salvatore Mangiafico tiene programas R de muestra para realizar análisis de potencia para muchas de las pruebas de este manual, vaya a la página de la prueba individual y desplácese hasta la parte inferior para ver el programa de análisis de potencia.

SAS tiene un PROC POWER que puede utilizar para análisis de energía. Ingresa los parámetros necesarios (que varían según la prueba) e ingresa un período (que simboliza los datos faltantes en SAS) para el parámetro que está resolviendo (generalmente ntotal, el tamaño total de la muestra, o npergrupo, el número de muestras en cada grupo). Encuentro que G * Power es más fácil de usar que SAS para este propósito, por lo que no recomiendo usar SAS para sus análisis de energía.

& lArr Tema anterior | Tema siguiente & rArr Tabla de contenido

Esta página fue revisada por última vez el 20 de julio de 2015. Su dirección es http://www.biostathandbook.com/power.html. Puede citarse como:
McDonald, J.H. 2014. Manual de estadísticas biológicas (3ª ed.). Editorial Sparky House, Baltimore, Maryland. Esta página web contiene el contenido de las páginas 40-44 en la versión impresa.

& copy2014 por John H. McDonald. Probablemente pueda hacer lo que quiera con este contenido, consulte la página de permisos para obtener más detalles.


PRINCIPIOS DE BIOLOGIA

La biología es importante porque nos ayuda a comprender cómo funcionan e interactúan los organismos vivos.

Hay cuatro principios unificadores que son importantes para toda la vida y forman la base de la biología moderna:

  1. Teoría celular
  • Todos los seres vivos están formados por una o más células.
  • Las células provienen de otras células que ya existen.

2. Teoría genética

  • Los rasgos de un organismo están codificados en su ácido desoxinucleico (ADN)
  • El ADN es una sustancia de veinte micrones de largo que consta de dos cadenas de polímeros con cuatro tipos de nucleótidos o bases (A, C, G y T).
  • El ADN forma los genes de un organismo.
  • A través de estos genes, los rasgos se transmiten de una generación a la siguiente.

3. Homeostasis

  • El organismo puede controlar sus funciones corporales para mantener un entorno interno estable a pesar de los cambios en el entorno externo.
  • Todos los seres vivos realizan homeostasis.
  • p.ej. Las células mantienen una acidez interna (pH) estable Los animales de sangre caliente mantienen una temperatura corporal constante El cuerpo humano mantiene niveles adecuados de glucosa

4. Evolución

  • Los rasgos heredados de una población cambian con el tiempo
  • Todos los organismos conocidos tienen un origen común


COMPONENTES DE LA COMPUTADORA

Mientras que el "hardware" de la computadora tradicional se refiere a los componentes físicos, su "software" se refiere al código del programa de computadora.

Transistores

Grabados en chips de silicio, los transistores microscópicos cambian entre dos estados binarios: APAGADO y ENCENDIDO, 0 y 1. Estos interruptores regulan el flujo de electrones en un cable y amplifican ciertas señales electrónicas.

Si el código binario es el lenguaje de las computadoras, los transistores son los componentes básicos de las computadoras.

Dado que estos bloques de construcción suelen ser más pequeños que el cabello humano, miles de millones de ellos se pueden empaquetar en un solo chip de computadora. Cuanto más cabe en un chip, más rápido es un procesador.

Puertas lógicas booleanas

Las puertas lógicas permiten que muchos transistores tomen decisiones rápidas y, en consecuencia, realicen cálculos complejos.

Como todos los sistemas digitales, las computadoras se basan en la lógica booleana para tomar decisiones. Las puertas lógicas implementan esta lógica booleana y, por lo tanto, son las unidades elementales de los circuitos digitales.

Aunque, en teoría, no existe un número máximo de puertas que se puedan colocar en un solo dispositivo, en la práctica, solo se pueden empaquetar tantas puertas en un espacio determinado.

Estas son las 7 puertas lógicas básicas:


Cálculos de biología .. nm, um, mm

Algo que nunca he podido hacer en los exámenes de Bio es cuando te piden que hagas un cálculo como medir el ancho de una celda, y esto implica convertir, por ejemplo, nm (¿nanómetros?) A um o mm ..

Entonces, ¿alguien podría proporcionar un enlace que pueda explicar cómo hacer estos cálculos, por favor?¿O podría alguien decirme cuántos nm hay en un mm y cuántos um hay en un nm lol si eso tiene algún sentido?

¿No es lo que estás buscando? Try & hellip

(Publicación original de estratomaster)
Algo que nunca he podido hacer en los exámenes de Bio es cuando te piden que hagas un cálculo como medir el ancho de una celda, y esto implica convertir, por ejemplo, nm (¿nanómetros?) A um o mm ..

Entonces, ¿alguien podría proporcionar un enlace que pueda explicar cómo hacer estos cálculos, por favor? ¿O podría alguien decirme cuántos nm hay en un mm y cuántos um hay en un nm lol si eso tiene algún sentido?

(Publicación original de estratomaster)
Algo que nunca he podido hacer en los exámenes de Bio es cuando te piden que hagas un cálculo como medir el ancho de una celda, y esto implica convertir, por ejemplo, nm (¿nanómetros?) A um o mm ..

Entonces, ¿alguien podría proporcionar un enlace que pueda explicar cómo hacer estos cálculos, por favor? ¿O podría alguien decirme cuántos nm hay en un mm y cuántos um hay en un nm lol si eso tiene algún sentido?

mili (m) - x 10-3
micro (u) - x 10 -6
nano (n) - x 10 -9
pico (p) - x 10-12

kilo (k) - x 10 3
mega (M) - x 10 6
giga (G) - x 10 9

PD: esto es para convertir a metros.

(Publicación original de mizfissy815)
mili (m) - x 10-3
micro (u) - x 10 -6
nano (n) - x 10 -9
pico (p) - x 10-12

kilo (k) - x 10 3
mega (M) - x 10 6
giga (G) - x 10 9

PD: esto es para convertir a metros.

(Publicación original de mizfissy815)
mili (m) - x 10-3
micro (u) - x 10 -6
nano (n) - x 10 -9
pico (p) - x 10-12

kilo (k) - x 10 3
mega (M) - x 10 6
giga (G) - x 10 9

PD: esto es para convertir a metros.

hay una pregunta que dice:
"convertir 20 nm en mm" ¿Cómo voy a responder?

Yo:
-Convierte 20 nm en metros dividiéndolo por x10 ^ -9
-entonces convertir ese número en x10 ^ -3?

(Publicación original de Hiraeth.)
hay una pregunta que dice:
"convertir 20 nm en mm" ¿Cómo voy a responder?

Yo:
-Convierte 20 nm en metros dividiéndolo por x10 ^ -9
-entonces convertir ese número en x10 ^ -3?

La diferencia entre mm, um y nm es un factor de 1,000

convertir mm en um, o um en nm implica multiplicar por 1000
Convirtiendo la otra forma de nm a um, o um a mm, divide por 1,000 en su lugar

(Publicación original de Hiraeth.)
hay una pregunta que dice:
"convertir 20 nm en mm" ¿Cómo voy a responder?

Yo:
-Convierte 20 nm en metros dividiéndolo por x10 ^ -9
-entonces convertir ese número en x10 ^ -3?

Les enseño estos conceptos a mis alumnos de una manera diferente: en lugar de mirar las potencias (^), es más fácil pensar en el número de ceros después del "1".

para unidades más pequeñas, el número de dígitos después del punto decimal.

ESTO PUEDE PARECER UN POCO PROTRACTADO, PERO SI LO HACES LENTAMENTE E INTENTAS COMPRENDER, ¡TODO CAERÁ EN SU LUGAR! (ofc no es tan bueno como enseñarlo verbalmente)

Por lo tanto, 1 m = 100 X 10 = 1000 mm

Por lo tanto 1m = 1000 X 1000 um = 1,000,000 um (10 ^ 6 um)

PERO 1m = 1000 X 1000 um = 1,000,000 um

Por lo tanto 1 m = 1000 X 1,000,000 nm = 1,000,000,000 nm (10 ^ 9 nm)

1 mm = 0,001 m
1um = 0,001 mm
1 nm = 0,001 um

TAMBIEN DE ESTE
1um = 0.001 X 0.001 m = 0.000001 m = 10 ^ -6 m
Y
1 nm = 0.001 X 0.001 X 0.001 m = 0.000000001 m = 10 ^ -9 m

Para convertir 20 nm en m

1 m = 1000 X 1,000,000 nm = 1,000,000,000 nm (10 ^ 9 nm)

Entonces 1nm = 1 / 1000,000,000 m = 1/10 ^ 9 m = 10 ^ -9 m

Por lo tanto 20 nm = 20 X 10 ^ -9 m = 2 X 10 ^ -8 m

Gracias por el representante; sin embargo, no me lo merecía porque no leí tu Q con atención. Debe resolverse como se muestra a continuación (nm a mm NO nm am)

Por lo tanto, 1nm = 0.001 X 0.001 mm (multiplicar un nm por 0.001 le da um, luego multiplicar esta cifra por 0.001 nuevamente le da mm = igual que dividir el número de nanómetros por 1000 para dar un valor en micrómetros y luego dividir por 1000 nuevamente para dar mm )


Bioestadística y genética Editar

El modelado bioestadístico forma una parte importante de numerosas teorías biológicas modernas. Los estudios de genética, desde sus inicios, utilizaron conceptos estadísticos para comprender los resultados experimentales observados. Algunos científicos genéticos incluso contribuyeron con avances estadísticos con el desarrollo de métodos y herramientas. Gregor Mendel inició los estudios de genética investigando patrones de segregación genética en familias de guisantes y utilizó estadísticas para explicar los datos recopilados. A principios de la década de 1900, después del redescubrimiento del trabajo de herencia mendeliana de Mendel, había brechas en la comprensión entre la genética y el darwinismo evolutivo. Francis Galton intentó expandir los descubrimientos de Mendel con datos humanos y propuso un modelo diferente con fracciones de la herencia provenientes de cada ancestral componiendo una serie infinita. Llamó a esto la teoría de la "Ley de la herencia ancestral". William Bateson, quien siguió las conclusiones de Mendel, no estuvo de acuerdo con sus ideas de que la herencia genética era exclusivamente de los padres, la mitad de cada uno de ellos. Esto llevó a un vigoroso debate entre los biometristas, que apoyaron las ideas de Galton, como Walter Weldon, Arthur Dukinfield Darbishire y Karl Pearson, y los mendelianos, que apoyaron las ideas de Bateson (y Mendel), como Charles Davenport y Wilhelm Johannsen. Posteriormente, los biometristas no pudieron reproducir las conclusiones de Galton en diferentes experimentos y prevalecieron las ideas de Mendel. En la década de 1930, los modelos basados ​​en el razonamiento estadístico habían ayudado a resolver estas diferencias y a producir la síntesis evolutiva moderna neodarwiniana.

Resolver estas diferencias también permitió definir el concepto de genética de poblaciones y unió genética y evolución. Las tres figuras principales en el establecimiento de la genética de poblaciones y esta síntesis se basaron en estadísticas y desarrollaron su uso en biología.

    desarrolló varios métodos estadísticos básicos en apoyo de su trabajo de estudio de los experimentos de cultivos en Rothamsted Research, incluyendo en sus libros Métodos estadísticos para investigadores (1925) y La teoría genética de la selección natural (1930). Dio muchas contribuciones a la genética y la estadística. Algunos de ellos incluyen el ANOVA, los conceptos de valor p, la prueba exacta de Fisher y la ecuación de Fisher para la dinámica de poblaciones. Se le atribuye la frase "La selección natural es un mecanismo para generar un grado extremadamente alto de improbabilidad". [1] desarrolló estadísticas F y métodos para calcularlas y definió el coeficiente de consanguinidad. el libro Las causas de la evolución, restableció la selección natural como el principal mecanismo de evolución al explicarla en términos de las consecuencias matemáticas de la genética mendeliana. También desarrolló la teoría de la sopa primordial.

Estos y otros bioestadísticos, biólogos matemáticos y genetistas inclinados a la estadística ayudaron a unir la biología evolutiva y la genética en un todo consistente y coherente que podría comenzar a modelarse cuantitativamente.

Paralelamente a este desarrollo general, el trabajo pionero de D'Arcy Thompson en Sobre el crecimiento y la forma también ayudó a agregar disciplina cuantitativa al estudio biológico.

A pesar de la importancia fundamental y la necesidad frecuente del razonamiento estadístico, puede haber existido una tendencia entre los biólogos a desconfiar o desaprobar los resultados que no son cualitativamente aparentes. Una anécdota describe a Thomas Hunt Morgan prohibiendo la calculadora Friden de su departamento en Caltech, diciendo: "Bueno, soy como un tipo que busca oro a lo largo de las orillas del río Sacramento en 1849. Con un poco de inteligencia, puedo extender la mano y recoger grandes pepitas de oro. Y mientras pueda hacer eso, no voy a permitir que ninguna persona de mi departamento desperdicie recursos escasos en la minería de placer ". [2]

Se propone cualquier investigación en ciencias de la vida para responder a una pregunta científica que podamos tener. Para responder a esta pregunta con alta certeza, necesitamos resultados precisos. La correcta definición de la hipótesis principal y el plan de investigación reducirá los errores a la hora de tomar una decisión en la comprensión de un fenómeno. El plan de investigación puede incluir la pregunta de investigación, la hipótesis que se probará, el diseño experimental, los métodos de recopilación de datos, las perspectivas de análisis de datos y la evolución de los costos. Es fundamental realizar el estudio con base en los tres principios básicos de la estadística experimental: aleatorización, replicación y control local.

Pregunta de investigación Editar

La pregunta de investigación definirá el objetivo de un estudio. La investigación estará encabezada por la pregunta, por lo que debe ser concisa, al mismo tiempo que se enfoca en temas interesantes y novedosos que puedan mejorar la ciencia y el conocimiento y ese campo. Para definir la forma de plantear la pregunta científica, puede ser necesaria una revisión exhaustiva de la literatura. Entonces, la investigación puede ser útil para agregar valor a la comunidad científica. [3]

Definición de hipótesis Editar

Una vez definido el objetivo del estudio, se pueden proponer las posibles respuestas a la pregunta de investigación, transformando esta pregunta en una hipótesis. La propuesta principal se llama hipótesis nula (H0) y suele basarse en un conocimiento permanente sobre el tema o en una ocurrencia evidente de los fenómenos, sustentado en una profunda revisión de la literatura. Podemos decir que es la respuesta estándar esperada para los datos en la situación en prueba. En general, HO no asume asociación entre tratos. Por otro lado, la hipótesis alternativa es la negación de HO. Supone cierto grado de asociación entre el tratamiento y el resultado. Sin embargo, la hipótesis se sustenta en la investigación de preguntas y sus respuestas esperadas e inesperadas. [3]

Como ejemplo, considere grupos de animales similares (ratones, por ejemplo) bajo dos sistemas de dieta diferentes. La pregunta de investigación sería: ¿cuál es la mejor dieta? En este caso, H0 sería que no hay diferencia entre las dos dietas en el metabolismo de los ratones (H0: μ1 = μ2) y la hipótesis alternativa sería que las dietas tienen diferentes efectos sobre el metabolismo de los animales (H1: μ1 ≠ μ2).

La hipótesis la define el investigador, de acuerdo con sus intereses en responder a la pregunta principal. Además de eso, la hipótesis alternativa puede ser más de una hipótesis. Puede asumir no solo diferencias entre los parámetros observados, sino también su grado de diferencias (es decir. más alto o más corto).

Muestreo Editar

Por lo general, un estudio tiene como objetivo comprender el efecto de un fenómeno sobre una población. En biología, una población se define como todos los individuos de una especie determinada, en un área específica en un momento dado. En bioestadística, este concepto se extiende a una variedad de colecciones posibles de estudio. Aunque, en bioestadística, una población no son solo los individuos, sino el total de un componente específico de sus organismos, como el genoma completo, o todos los espermatozoides, para los animales, o el área foliar total, para una planta, por ejemplo. .

No es posible tomar las medidas de todos los elementos de una población. Por eso, el proceso de muestreo es muy importante para la inferencia estadística. El muestreo se define como obtener aleatoriamente una parte representativa de toda la población, para hacer inferencias posteriores sobre la población. Por lo tanto, la muestra podría captar la mayor variabilidad en una población. [4] El tamaño de la muestra está determinado por varias cosas, desde el alcance de la investigación hasta los recursos disponibles. En la investigación clínica, el tipo de ensayo, como inferioridad, equivalencia y superioridad, es clave para determinar el tamaño de la muestra. [3]

Diseño experimental Editar

Los diseños experimentales sustentan esos principios básicos de la estadística experimental. Hay tres diseños experimentales básicos para asignar tratamientos al azar en todas las parcelas del experimento. Son diseño completamente al azar, diseño de bloques al azar y diseños factoriales. Los tratamientos se pueden organizar de muchas formas dentro del experimento. En agricultura, el diseño experimental correcto es la raíz de un buen estudio y la disposición de los tratamientos dentro del estudio es fundamental porque el medio ambiente afecta en gran medida las parcelas (plantas, ganado, microorganismos). Estos arreglos principales se pueden encontrar en la literatura bajo los nombres de “celosías”, “bloques incompletos”, “parcela dividida”, “bloques aumentados” y muchos otros. Todos los diseños pueden incluir gráficos de control, determinados por el investigador, para proporcionar una estimación del error durante la inferencia.

En los estudios clínicos, las muestras suelen ser más pequeñas que en otros estudios biológicos y, en la mayoría de los casos, el efecto ambiental se puede controlar o medir. Es común utilizar ensayos clínicos controlados aleatorios, donde los resultados generalmente se comparan con diseños de estudios observacionales como casos y controles o cohortes. [5]

Recolección de datos Editar

Los métodos de recopilación de datos deben tenerse en cuenta en la planificación de la investigación, ya que influyen en gran medida en el tamaño de la muestra y el diseño experimental.

La recopilación de datos varía según el tipo de datos. Para los datos cualitativos, la recolección se puede hacer con cuestionarios estructurados o por observación, considerando la presencia o la intensidad de la enfermedad, utilizando el criterio de puntuación para categorizar los niveles de ocurrencia. [6] Para datos cuantitativos, la recolección se realiza midiendo información numérica utilizando instrumentos.

En los estudios de agricultura y biología, los datos de rendimiento y sus componentes se pueden obtener mediante medidas métricas. Sin embargo, las lesiones por plagas y enfermedades en las plantas se obtienen por observación, considerando escalas de puntuación para los niveles de daño. Especialmente, en los estudios genéticos, los métodos modernos para la recopilación de datos en el campo y en el laboratorio deben considerarse como plataformas de alto rendimiento para el fenotipado y el genotipado. Estas herramientas permiten experimentos más grandes, mientras que a su vez es posible evaluar muchas parcelas en menos tiempo que un método solo basado en humanos para la recopilación de datos. Por último, todos los datos de interés recopilados deben almacenarse en un marco de datos organizado para su posterior análisis.

Herramientas descriptivas Editar

Los datos se pueden representar a través de tablas o representación gráfica, como gráficos de líneas, gráficos de barras, histogramas, gráficos de dispersión. Además, las medidas de tendencia central y variabilidad pueden ser muy útiles para describir una descripción general de los datos. Siga algunos ejemplos:

Un tipo de tablas es la tabla de frecuencia, que consta de datos organizados en filas y columnas, donde la frecuencia es el número de ocurrencias o repeticiones de datos. La frecuencia puede ser: [7]

Absoluto: representa el número de veces que aparece un valor determinado

Relativo: obtenido por la división de la frecuencia absoluta por el número total

En el siguiente ejemplo, tenemos el número de genes en diez operones del mismo organismo.

Géneros = 2, 3, 3, 4, 5, 3, 3, 3, 3, 4

Los gráficos de líneas representan la variación de un valor sobre otra métrica, como el tiempo. En general, los valores se representan en el eje vertical, mientras que la variación temporal se representa en el eje horizontal. [9]

Un gráfico de barras es un gráfico que muestra datos categóricos como barras que presentan alturas (barra vertical) o anchos (barra horizontal) proporcionales para representar valores. Los gráficos de barras proporcionan una imagen que también se puede representar en formato tabular. [9]

En el ejemplo del gráfico de barras, tenemos la tasa de natalidad en Brasil para los meses de diciembre de 2010 a 2016. [8] La fuerte caída en diciembre de 2016 refleja el brote del virus Zika en la tasa de natalidad en Brasil.

El histograma (o distribución de frecuencia) es una representación gráfica de un conjunto de datos tabulado y dividido en clases uniformes o no uniformes. Fue introducido por primera vez por Karl Pearson. [10]

Un diagrama de dispersión es un diagrama matemático que usa coordenadas cartesianas para mostrar valores de un conjunto de datos. Un diagrama de dispersión muestra los datos como un conjunto de puntos, cada uno presentando el valor de una variable que determina la posición en el eje horizontal y otra variable en el eje vertical. [11] También se les llama Gráfico de dispersión, gráfico de dispersión, diagrama de dispersión, o diagrama de dispersión. [12]

La mediana es el valor en el medio de un conjunto de datos.

La moda es el valor de un conjunto de datos que aparece con mayor frecuencia. [13]

El diagrama de caja es un método para representar gráficamente grupos de datos numéricos. Los valores máximo y mínimo están representados por las líneas, y el rango intercuartil (IQR) representa el 25-75% de los datos. Los valores atípicos se pueden trazar como círculos.

Aunque las correlaciones entre dos tipos diferentes de datos se pueden inferir mediante gráficos, como el diagrama de dispersión, es necesario validarlo mediante información numérica. Por esta razón, se requieren coeficientes de correlación. Proporcionan un valor numérico que refleja la fuerza de una asociación. [9]

El coeficiente de correlación de Pearson es una medida de asociación entre dos variables, X e Y. Este coeficiente, generalmente representado por ρ (rho) para la población y r para la muestra, asume valores entre -1 y 1, donde ρ = 1 representa una correlación positiva perfecta, ρ = -1 representa una correlación negativa perfecta, y ρ = 0 no es una correlación lineal. [9]

Estadísticas inferenciales editar

Se utiliza para hacer inferencias [14] sobre una población desconocida, mediante estimación y / o prueba de hipótesis. Es decir, es deseable obtener parámetros para describir la población de interés, pero dado que los datos son limitados, es necesario hacer uso de una muestra representativa para estimarlos. Con eso, es posible probar hipótesis previamente definidas y aplicar las conclusiones a toda la población. El error estándar de la media es una medida de variabilidad que es crucial para hacer inferencias. [4]

La prueba de hipótesis es esencial para hacer inferencias sobre poblaciones con el objetivo de responder preguntas de investigación, como se establece en la sección "Planificación de la investigación". Los autores definieron cuatro pasos a establecer: [4]

  1. La hipótesis a probar: como se dijo anteriormente, tenemos que trabajar con la definición de una hipótesis nula (H0), que se va a probar, y una hipótesis alternativa. Pero deben definirse antes de la implementación del experimento.
  2. Nivel de significación y regla de decisión: Una regla de decisión depende del nivel de significancia, o en otras palabras, la tasa de error aceptable (α). Es más fácil pensar que definimos un valor crítico que determina la significancia estadística cuando se compara un estadístico de prueba con él. Entonces, α también tiene que estar predefinido antes del experimento.
  3. Experimento y análisis estadístico: Aquí es cuando realmente se implementa el experimento siguiendo el diseño experimental apropiado, se recolectan datos y se evalúan las pruebas estadísticas más adecuadas.
  4. Inferencia: Se realiza cuando la hipótesis nula es rechazada o no rechazada, con base en la evidencia que aporta la comparación de p-valores y α. Se señala que el hecho de no rechazar H0 solo significa que no hay suficiente evidencia para apoyar su rechazo, pero no que esta hipótesis sea cierta.

Un intervalo de confianza es un rango de valores que puede contener el verdadero valor real del parámetro en un cierto nivel de confianza. El primer paso es estimar la estimación más insesgada del parámetro de población.El valor superior del intervalo se obtiene por la suma de esta estimación con la multiplicación entre el error estándar de la media y el nivel de confianza. El cálculo del valor más bajo es similar, pero en lugar de una suma, se debe aplicar una resta. [4]

Error de potencia y estadístico Editar

Al probar una hipótesis, hay dos tipos de errores estadísticos posibles: error de tipo I y error de tipo II. El error de tipo I o falso positivo es el rechazo incorrecto de una hipótesis nula verdadera y el error de tipo II o falso negativo es la falta de rechazo de una hipótesis nula falsa. El nivel de significancia denotado por α es la tasa de error de tipo I y debe elegirse antes de realizar la prueba. La tasa de error de tipo II se indica mediante β y la potencia estadística de la prueba es 1 - β.

Valor p Editar

El p-valor es la probabilidad de obtener resultados tan extremos o más extremos que los observados, asumiendo la hipótesis nula (H0) es verdad. También se llama probabilidad calculada. Es común confundir el valor p con el nivel de significancia (α), pero el α es un umbral predefinido para obtener resultados significativos. Si p es menor que α, la hipótesis nula (H0) se rechaza. [15]

Prueba múltiple Editar

En múltiples pruebas de la misma hipótesis, la probabilidad de ocurrencia de falsos positivos (tasa de error familiar) aumenta y se usa alguna estrategia para controlar esta ocurrencia. Esto se logra comúnmente mediante el uso de un umbral más estricto para rechazar hipótesis nulas. La corrección de Bonferroni define un nivel de significancia global aceptable, denotado por α * y cada prueba se compara individualmente con un valor de α = α * / m. Esto asegura que la tasa de error familiar en todas las m pruebas sea menor o igual a α *. Cuando m es grande, la corrección de Bonferroni puede ser demasiado conservadora. Una alternativa a la corrección de Bonferroni es controlar la tasa de descubrimiento falso (FDR). El FDR controla la proporción esperada de hipótesis nulas rechazadas (los llamados descubrimientos) que son falsas (rechazos incorrectos). Este procedimiento asegura que, para pruebas independientes, la tasa de descubrimiento falso sea como máximo q *. Así, el FDR es menos conservador que la corrección de Bonferroni y tiene más potencia, a costa de más falsos positivos. [dieciséis]

Comprobaciones de especificación incorrecta y robustez Editar

La principal hipótesis que se está probando (p. Ej., No asociación entre tratamientos y resultados) suele ir acompañada de otros supuestos técnicos (p. Ej., Sobre la forma de distribución de probabilidad de los resultados) que también forman parte de la hipótesis nula. Cuando los supuestos técnicos se violan en la práctica, el nulo puede rechazarse con frecuencia incluso si la hipótesis principal es verdadera. Se dice que tales rechazos se deben a una especificación incorrecta del modelo. [17] Verificar si el resultado de una prueba estadística no cambia cuando los supuestos técnicos se modifican levemente (los llamados controles de robustez) es la principal forma de combatir las especificaciones incorrectas.

Criterios de selección de modelo Editar

La selección de criterios de modelo seleccionará o modelará ese modelo verdadero más aproximado. El criterio de información de Akaike (AIC) y el criterio de información bayesiano (BIC) son ejemplos de criterios asintóticamente eficientes.

Los desarrollos recientes han tenido un gran impacto en la bioestadística. Dos cambios importantes han sido la capacidad de recopilar datos en una escala de alto rendimiento y la capacidad de realizar análisis mucho más complejos utilizando técnicas computacionales. Esto proviene del desarrollo en áreas como tecnologías de secuenciación, bioinformática y aprendizaje automático (aprendizaje automático en bioinformática).

Uso en datos de alto rendimiento Editar

Las nuevas tecnologías biomédicas como microarrays, secuenciadores de próxima generación (para genómica) y espectrometría de masas (para proteómica) generan enormes cantidades de datos, lo que permite realizar muchas pruebas simultáneamente. [18] Se requiere un análisis cuidadoso con métodos bioestadísticos para separar la señal del ruido. Por ejemplo, una micromatriz podría usarse para medir muchos miles de genes simultáneamente, determinando cuál de ellos tiene una expresión diferente en las células enfermas en comparación con las células normales. Sin embargo, solo una fracción de genes se expresará de manera diferencial. [19]

La multicolinealidad ocurre a menudo en entornos bioestadísticos de alto rendimiento. Debido a la alta intercorrelación entre los predictores (como los niveles de expresión génica), la información de un predictor podría estar contenida en otro. Podría ser que solo el 5% de los predictores sean responsables del 90% de la variabilidad de la respuesta. En tal caso, se podría aplicar la técnica bioestadística de reducción de dimensiones (por ejemplo, a través del análisis de componentes principales). Las técnicas estadísticas clásicas como la regresión lineal o logística y el análisis discriminante lineal no funcionan bien para datos de alta dimensión (es decir, cuando el número de observaciones n es menor que el número de características o predictores p: n & lt p). De hecho, se pueden obtener valores R 2 bastante altos a pesar de que el poder predictivo del modelo estadístico es muy bajo. Estas técnicas estadísticas clásicas (especialmente regresión lineal de mínimos cuadrados) se desarrollaron para datos de baja dimensión (es decir, donde el número de observaciones n es mucho mayor que el número de predictores p: n & gt & gt p). En casos de alta dimensionalidad, siempre se debe considerar un conjunto de pruebas de validación independiente y la correspondiente suma residual de cuadrados (RSS) y R2 del conjunto de pruebas de validación, no los del conjunto de entrenamiento.

A menudo, es útil agrupar información de varios predictores. Por ejemplo, el análisis de enriquecimiento de conjuntos de genes (GSEA) considera la perturbación de conjuntos de genes completos (funcionalmente relacionados) en lugar de genes individuales. [20] Estos conjuntos de genes podrían ser vías bioquímicas conocidas o genes relacionados funcionalmente. La ventaja de este enfoque es que es más robusto: es más probable que se encuentre falsamente perturbado un solo gen que una vía completa falsamente perturbada. Además, se puede integrar el conocimiento acumulado sobre las vías bioquímicas (como la vía de señalización JAK-STAT) utilizando este enfoque.

Avances bioinformáticos en bases de datos, minería de datos e interpretación biológica Editar

El desarrollo de bases de datos biológicas permite el almacenamiento y la gestión de datos biológicos con la posibilidad de garantizar el acceso a usuarios de todo el mundo. Son útiles para los investigadores que depositan datos, recuperan información y archivos (sin procesar o procesados) originados en otros experimentos o indexando artículos científicos, como PubMed. Otra posibilidad es buscar el término deseado (un gen, una proteína, una enfermedad, un organismo, etc.) y verificar todos los resultados relacionados con esta búsqueda. Existen bases de datos dedicadas a los SNPs (dbSNP), el conocimiento sobre la caracterización de genes y sus vías (KEGG) y la descripción de la función génica clasificándola por componente celular, función molecular y proceso biológico (Gene Ontology). [21] Además de las bases de datos que contienen información molecular específica, hay otras que son amplias en el sentido de que almacenan información sobre un organismo o grupo de organismos. Como ejemplo de una base de datos dirigida a un solo organismo, pero que contiene muchos datos al respecto, es el Arabidopsis thaliana base de datos genética y molecular - TAIR. [22] Phytozome, [23] a su vez, almacena los archivos de ensamblajes y anotaciones de una docena de genomas de plantas, que también contienen herramientas de visualización y análisis. Además, hay una interconexión entre algunas bases de datos en el intercambio / intercambio de información y una iniciativa importante fue la Colaboración Internacional de Bases de Datos de Secuencias de Nucleótidos (INSDC) [24], que relaciona datos de DDBJ, [25] EMBL-EBI, [26] y NCBI . [27]

Hoy en día, el aumento de tamaño y complejidad de los conjuntos de datos moleculares conduce al uso de poderosos métodos estadísticos proporcionados por algoritmos informáticos desarrollados por el área de aprendizaje automático. Por tanto, la minería de datos y el aprendizaje automático permiten la detección de patrones en datos con una estructura compleja, como los biológicos, mediante el uso de métodos de aprendizaje supervisado y no supervisado, regresión, detección de clusters y minería de reglas de asociación, entre otros. [21] Para indicar algunos de ellos, mapas autoorganizados y kLos medios son ejemplos de algoritmos de clúster, la implementación de redes neuronales y los modelos de máquinas vectoriales de soporte son ejemplos de algoritmos comunes de aprendizaje automático.

El trabajo colaborativo entre biólogos moleculares, bioinformáticos, estadísticos e informáticos es importante para realizar correctamente un experimento, pasando de la planificación, pasando por la generación y análisis de datos, y finalizando con la interpretación biológica de los resultados. [21]

Uso de métodos computacionalmente intensivos Editar

Por otro lado, el advenimiento de la tecnología informática moderna y los recursos informáticos relativamente baratos han permitido métodos bioestadísticos con uso intensivo de computadoras, como los métodos de arranque y remuestreo.

En los últimos tiempos, los bosques aleatorios han ganado popularidad como método para realizar la clasificación estadística. Las técnicas de bosque aleatorio generan un panel de árboles de decisión. Los árboles de decisión tienen la ventaja de que puede dibujarlos e interpretarlos (incluso con un conocimiento básico de matemáticas y estadística). Por lo tanto, los bosques aleatorios se han utilizado para sistemas de apoyo a las decisiones clínicas. [ cita necesaria ]

Salud pública Editar

Salud pública, incluida la epidemiología, la investigación de los servicios de salud, la nutrición, la salud ambiental y las políticas y la gestión de la atención de la salud. En estos contenidos de medicina, es importante considerar el diseño y análisis de los ensayos clínicos. Como ejemplo, existe la evaluación del estado de gravedad de un paciente con pronóstico de un resultado de una enfermedad.

Con las nuevas tecnologías y el conocimiento de la genética, la bioestadística ahora también se utiliza para la medicina de sistemas, que consiste en una medicina más personalizada. Para ello, se realiza una integración de datos de diferentes fuentes, incluidos datos de pacientes convencionales, parámetros clínico-patológicos, datos moleculares y genéticos, así como datos generados por tecnologías de new-ómicas adicionales. [28]

Genética cuantitativa Editar

El estudio de la genética de poblaciones y la genética estadística con el fin de vincular la variación en el genotipo con una variación en el fenotipo. En otras palabras, es deseable descubrir la base genética de un rasgo medible, un rasgo cuantitativo, que está bajo control poligénico. Una región del genoma que es responsable de un rasgo continuo se denomina locus de rasgo cuantitativo (QTL). El estudio de QTL se vuelve factible mediante el uso de marcadores moleculares y la medición de rasgos en poblaciones, pero su mapeo necesita la obtención de una población a partir de un cruce experimental, como una F2 o cepas / líneas endogámicas recombinantes (RIL). Para buscar regiones de QTL en un genoma, se debe construir un mapa genético basado en el enlace. Algunos de los algoritmos de mapeo QTL más conocidos son el mapeo de intervalo, el mapeo de intervalo compuesto y el mapeo de intervalo múltiple. [29]

Sin embargo, la resolución del mapeo de QTL se ve afectada por la cantidad de recombinación ensayada, un problema para las especies en las que es difícil obtener una gran descendencia. Además, la diversidad de alelos está restringida a individuos originados a partir de padres contrastantes, lo que limita los estudios de diversidad de alelos cuando tenemos un panel de individuos que representan una población natural. [30] Por esta razón, se propuso el estudio de asociación de todo el genoma para identificar los QTL basados ​​en el desequilibrio de ligamiento, es decir, la asociación no aleatoria entre rasgos y marcadores moleculares. Fue aprovechado por el desarrollo de genotipado SNP de alto rendimiento. [31]

En la cría de animales y plantas, el uso de marcadores en la selección con el objetivo de mejorar, principalmente los moleculares, colaboró ​​con el desarrollo de la selección asistida por marcadores. Si bien el mapeo QTL tiene una resolución limitada debido, GWAS no tiene suficiente potencia cuando hay variantes raras de pequeño efecto que también están influenciadas por el entorno. Entonces, surge el concepto de Selección Genómica (GS) con el fin de utilizar todos los marcadores moleculares en la selección y permitir la predicción del desempeño de los candidatos en esta selección. La propuesta es genotipar y fenotipar una población de entrenamiento, desarrollar un modelo que pueda obtener los valores genómicos estimados de reproducción (GEBV) de individuos pertenecientes a una población genotipada pero no fenotipada, llamada población de prueba. [32] Este tipo de estudio también podría incluir una población de validación, pensando en el concepto de validación cruzada, en la que los resultados del fenotipo real medidos en esta población se comparan con los resultados del fenotipo basados ​​en la predicción, lo que se utiliza para verificar la precisión. del modelo.

A modo de resumen, algunos puntos sobre la aplicación de la genética cuantitativa son:

  • Esto se ha utilizado en agricultura para mejorar cultivos (fitomejoramiento) y ganadería (cría de animales).
  • En la investigación biomédica, este trabajo puede ayudar a encontrar candidatos genéticos que puedan causar o influir en la predisposición a enfermedades en la genética humana.

Edición de datos de expresión

Los estudios para la expresión diferencial de genes a partir de datos de RNA-Seq, como para RT-qPCR y microarrays, exigen la comparación de condiciones. El objetivo es identificar genes que tienen un cambio significativo en abundancia entre diferentes condiciones. Luego, los experimentos se diseñan de manera apropiada, con réplicas para cada condición / tratamiento, aleatorización y bloqueo, cuando sea necesario. En RNA-Seq, la cuantificación de la expresión utiliza la información de lecturas mapeadas que se resumen en alguna unidad genética, como exones que forman parte de una secuencia genética. Como los resultados de los microarrays pueden aproximarse mediante una distribución normal, los datos de recuentos de RNA-Seq se explican mejor mediante otras distribuciones. La primera distribución utilizada fue la de Poisson, pero subestima el error muestral, dando lugar a falsos positivos. Actualmente, la variación biológica se considera mediante métodos que estiman un parámetro de dispersión de una distribución binomial negativa. Se utilizan modelos lineales generalizados para realizar las pruebas de significación estadística y, dado que el número de genes es alto, se debe considerar la corrección de múltiples pruebas. [33] Algunos ejemplos de otros análisis de datos genómicos provienen de experimentos de microarrays o proteómica. [34] [35] A menudo en relación con enfermedades o etapas de la enfermedad. [36]

Otros estudios Editar

    , previsión ecológica
  • Análisis de secuencias biológicas [37] para inferencia de redes de genes o análisis de rutas. [38], especialmente en lo que respecta a la ciencia pesquera. y evolución

Hay muchas herramientas que se pueden utilizar para realizar análisis estadísticos en datos biológicos. La mayoría de ellos son útiles en otras áreas del conocimiento, cubriendo un gran número de aplicaciones (alfabéticamente). Aquí hay breves descripciones de algunos de ellos:

    : Otro software desarrollado por VSNi [39] que se puede utilizar también en entorno R como paquete. Está desarrollado para estimar los componentes de la varianza bajo un modelo lineal mixto general utilizando la máxima verosimilitud restringida (REML). Se permiten modelos con efectos fijos y efectos aleatorios y anidados o cruzados. Da la posibilidad de investigar diferentes estructuras matriciales de varianza-covarianza.
  • CycDesigN: [40] Un paquete informático desarrollado por VSNi [39] que ayuda a los investigadores a crear diseños experimentales y analizar datos provenientes de un diseño presente en una de las tres clases manejadas por CycDesigN. Estas clases son diseños que se pueden resolver, no se pueden resolver, se replican parcialmente y se cruzan. Incluye diseños menos usados ​​los latinizados, como diseño t-latinizado. [41]: Una interfaz de programación para procesamiento de datos de alto nivel, extracción de datos y visualización de datos. Incluya herramientas para la expresión genética y la genómica. [21]: Un entorno de código abierto y un lenguaje de programación dedicado a la computación estadística y los gráficos. Es una implementación del lenguaje S mantenido por CRAN. [42] Además de sus funciones para leer tablas de datos, tomar estadísticas descriptivas, desarrollar y evaluar modelos, su repositorio contiene paquetes desarrollados por investigadores de todo el mundo. Esto permite el desarrollo de funciones escritas para hacer frente al análisis estadístico de datos que provienen de aplicaciones específicas. En el caso de la Bioinformática, por ejemplo, existen paquetes ubicados en el repositorio principal (CRAN) y en otros, como Bioconductor. También es posible utilizar paquetes en desarrollo que se comparten en servicios de alojamiento como GitHub. : Un software de análisis de datos ampliamente utilizado, pasando por universidades, servicios e industria. Desarrollado por una empresa del mismo nombre (SAS Institute), utiliza el lenguaje SAS para la programación.
  • PLA 3.0: [43] Es un software de análisis bioestadístico para entornos regulados (por ejemplo, pruebas de drogas) que admite ensayos de respuesta cuantitativa (línea paralela, logística paralela, relación de pendiente) y ensayos dicotómicos (respuesta cuántica, ensayos binarios). También admite métodos de ponderación para cálculos de combinación y la agregación automática de datos de datos de ensayos independientes. : Un software Java para el aprendizaje automático y la minería de datos, que incluye herramientas y métodos para visualización, agrupación en clústeres, regresión, regla de asociación y clasificación. Hay herramientas para validación cruzada, bootstrapping y un módulo de comparación de algoritmos. Weka también se puede ejecutar en otros lenguajes de programación como Perl o R. [21]

Casi todos los programas educativos en bioestadística son de posgrado. Se encuentran con mayor frecuencia en las escuelas de salud pública, afiliadas a las escuelas de medicina, silvicultura o agricultura, o como foco de aplicación en los departamentos de estadística.

En los Estados Unidos, donde varias universidades tienen departamentos dedicados a la bioestadística, muchas otras universidades de primer nivel integran la facultad de bioestadística en estadísticas u otros departamentos, como epidemiología. Por lo tanto, los departamentos que llevan el nombre de "bioestadística" pueden existir bajo estructuras bastante diferentes. Por ejemplo, se han fundado departamentos de bioestadística relativamente nuevos con un enfoque en bioinformática y biología computacional, mientras que los departamentos más antiguos, típicamente afiliados a escuelas de salud pública, tendrán líneas de investigación más tradicionales que involucren estudios epidemiológicos y ensayos clínicos, así como bioinformática. En las universidades más grandes de todo el mundo, donde existen tanto un departamento de estadística como un departamento de bioestadística, el grado de integración entre los dos departamentos puede variar desde el mínimo indispensable hasta una colaboración muy estrecha. En general, la diferencia entre un programa de estadística y un programa de bioestadística es doble: (i) los departamentos de estadística suelen albergar investigaciones teóricas / metodológicas que son menos comunes en los programas de bioestadística y (ii) los departamentos de estadística tienen líneas de investigación que pueden incluir aplicaciones biomédicas. pero también otras áreas como la industria (control de calidad), negocios y economía y áreas biológicas distintas de la medicina.


Contenido

Agua Editar

La vida media biológica del agua en un ser humano es de aproximadamente 7 a 14 días. Puede alterarse por comportamiento. Beber grandes cantidades de alcohol reducirá la vida media biológica del agua en el cuerpo. [9] [10] Esto se ha utilizado para descontaminar a los seres humanos que están contaminados internamente con agua tritiada (tritio). La base de este método de descontaminación (utilizado en Harwell) [ cita necesaria ] es aumentar la velocidad a la que el agua del cuerpo se reemplaza por agua nueva.

Alcohol Editar

La eliminación del etanol (beber alcohol) a través de la oxidación por la alcohol deshidrogenasa en el hígado del cuerpo humano es limitada. Por tanto, la eliminación de una gran concentración de alcohol de la sangre puede seguir una cinética de orden cero. Además, los pasos que limitan la velocidad para una sustancia pueden ser comunes con otras sustancias. Por ejemplo, la concentración de alcohol en sangre se puede utilizar para modificar la bioquímica del metanol y el etilenglicol. De esta manera, la oxidación del metanol al formaldehído tóxico y al ácido fórmico en el cuerpo humano se puede prevenir dando una cantidad apropiada de etanol a una persona que ha ingerido metanol. Tenga en cuenta que el metanol es muy tóxico y causa ceguera y muerte. Una persona que ha ingerido etilenglicol puede recibir el mismo tratamiento. La vida media también es relativa a la tasa metabólica subjetiva del individuo en cuestión.

Medicamentos recetados habituales Editar

Sustancia Vida media biológica
Adenosina Menos de 10 segundos (estimación) [11]
Noradrenalina 2 minutos [12]
Oxaliplatino 14 minutos [13]
Zaleplon 1 hora [14]
Morfina 1,5–4,5 horas [15]
Flurazepam 2,3 horas [16]

en casos raros hasta 8 días [18]

Metabolito activo (nordazepam): 30-200 horas [19]

Metabolito lipofílico activo (norfluoxetina): 4 a 16 días [24]

Metales Editar

La vida media biológica del cesio en humanos es de entre uno y cuatro meses. Esto se puede acortar alimentando a la persona con azul de prusia. El azul de Prusia en el sistema digestivo actúa como un intercambiador de iones sólidos que absorbe el cesio mientras libera iones de potasio.

Para algunas sustancias, es importante pensar en el cuerpo humano o animal como compuesto de varias partes, cada una con su propia afinidad por la sustancia, y cada parte con una vida media biológica diferente (modelado farmacocinético basado en fisiología). Los intentos de eliminar una sustancia de todo el organismo pueden tener el efecto de aumentar la carga presente en una parte del organismo. Por ejemplo, si una persona que está contaminada con plomo recibe EDTA en una terapia de quelación, mientras aumenta la velocidad a la que se pierde el plomo del cuerpo, el plomo dentro del cuerpo tiende a trasladarse al cerebro, donde puede hacerlo. el mayor daño. [29]

    en el cuerpo tiene una vida media biológica de aproximadamente 30 a 50 días. en el cuerpo tiene una vida media biológica de aproximadamente uno a cuatro meses. (como metilmercurio) en el cuerpo tiene una vida media de aproximadamente 65 días.
  • El plomo en la sangre tiene una vida media de 28 a 36 días. [30] [31] en el hueso tiene una vida media biológica de unos diez años. en el hueso tiene una vida media biológica de unos 30 años. en el hueso tiene una vida media biológica de unos 100 años. en el hígado tiene una vida media biológica de unos 40 años.

Vida media periférica Editar

Algunas sustancias pueden tener diferentes vidas medias en diferentes partes del cuerpo. Por ejemplo, la oxitocina tiene una vida media de aproximadamente tres minutos en la sangre cuando se administra por vía intravenosa. Los péptidos administrados periféricamente (por ejemplo, por vía intravenosa) como la oxitocina atraviesan muy mal la barrera hematoencefálica, aunque parecen entrar cantidades muy pequeñas (& lt 1%) en el sistema nervioso central de los seres humanos cuando se administran por esta vía. [32] En contraste con la administración periférica, cuando se administra por vía intranasal a través de un aerosol nasal, la oxitocina cruza de manera confiable la barrera hematoencefálica y exhibe efectos psicoactivos en humanos. [33] [34] Además, también a diferencia del caso de la administración periférica, la oxitocina intranasal tiene una duración central de al menos 2,25 horas y hasta 4 horas. [35] [36] Probablemente en relación con este hecho, se ha descubierto que las concentraciones de oxitocina endógena en el cerebro son hasta 1000 veces más altas que las concentraciones periféricas. [32]

Eliminación de primer orden Editar

Cronología de un proceso de desintegración exponencial [37] [38] [39]
Tiempo (t) Porcentaje del valor inicial Porcentaje de finalización
50% 50%
t½ × 2 25% 75%
t½ × 3 12.5% 87.5%
t½ × 3.322 10.00% 90.00%
t½ × 4 6.25% 93.75%
t½ × 4,322 5.00% 95.00%
t½ × 5 3.125% 96.875%
t½ × 6 1.5625% 98.4375%
t½ × 7 0.781% 99.219%
t½ × 10 0.098% 99.902%

dónde k es la constante de velocidad de reacción. Esta tasa de desintegración surge de una reacción de primer orden en la que la tasa de eliminación es proporcional a la cantidad de sustancia: [40]

La vida media de este proceso es [40]

Alternativamente, la vida media viene dada por

dónde λz es la pendiente de la fase terminal de la curva tiempo-concentración de la sustancia en una escala semilogarítmica. [41] [42]

La vida media está determinada por el aclaramiento (CL) y el volumen de distribución (VD) y la relación se describe mediante la siguiente ecuación:

En la práctica clínica, esto significa que se necesitan de 4 a 5 veces la vida media para que la concentración sérica de un fármaco alcance el estado estacionario después de que se inicie, suspenda o cambie la dosis regular. Entonces, por ejemplo, la digoxina tiene una vida media (ot½) de 24 a 36 h, esto significa que un cambio en la dosis tardará la mayor parte de una semana en surtir efecto. Por esta razón, los medicamentos con una vida media prolongada (p. Ej., Amiodarona, t de eliminación)½ de aproximadamente 58 días) suelen comenzar con una dosis de carga para lograr el efecto clínico deseado más rápidamente.

Vida media bifásica Editar

Muchos medicamentos siguen una curva de eliminación bifásica, primero una pendiente pronunciada y luego una pendiente poco profunda:

STEEP (inicial) parte de la curva - & gt distribución inicial del fármaco en el organismo. Parte PROFUNDA de la curva - & gt excreción final del fármaco, que depende de la liberación del fármaco desde los compartimentos tisulares hacia la sangre.

La vida media más larga se llama vida media terminal y la vida media del componente más grande se llama vida media dominante. [40] Para una descripción más detallada, véase Farmacocinética § Modelos multicompartimentales.


Cómo calcular su Prime Time Biológico y # 8211 la hora del día en la que es más productivo

Tiempo de lectura estimado: 3 minutos, 37 s.

Durante todo el día, su energía fluctúa en torno a lo que come, la cantidad de cafeína que consume, lo cansado que está, lo duro que trabaja y mucho más.

En un esfuerzo por calcular la hora exacta del día en la que soy más productivo (mi "Biological Prime Time", como lo acuñó Sam Carpenter en su libro Work the System), recientemente hice un gráfico de mis niveles de energía, concentración y motivación para 21 días, entre las 6 a.m. y las 9 p.m. Para controlar cualquier variable extraña, no consumía cafeína ni alcohol, hacía ejercicio en diferentes momentos todos los días, me despertaba y me dormía de forma natural.

Mis resultados específicos no son demasiado importantes, simplemente porque los suyos variarán mucho según su biología. Pero Existen enormes beneficios de productividad al trazar sus niveles de energía durante el transcurso de un día típico. Voy a repasarlos en un segundo, pero primero, aquí le recomiendo que grabe sus niveles de energía.

Para registrar sus niveles de energía, le recomiendo algunas cosas:

  1. Elimine la cafeína, el alcohol y cualquier otro potenciador o depresor del estado de ánimo para obtener una lectura precisa. Esto es una puta, pero absolutamente esencial para obtener datos decentes. Si tiene una dependencia de la cafeína, espere hasta que ya no sienta los síntomas de abstinencia para registrar sus niveles de energía. Como alguien que depende de la cafeína todos los días, esta fue la parte más difícil de registrar mis niveles de energía, pero al final valió la pena. Se ha demostrado que sus niveles de energía son bastante estables a lo largo de su vida, así que no se preocupe, los datos que recopile serán buenos durante mucho tiempo.
  2. Despierta y duerme de forma natural, sin poner una alarma. (si puedes, claro)
  3. Registre sus niveles de energía cada hora, a la hora. Configuré un formulario de Google Doc para ingresar mis niveles cada hora en mi teléfono (también configuré una alarma por hora), pero un registro en papel funciona igual de bien. Hice un gráfico de mi motivación y concentración junto con mi energía, pero creo que la energía es el elemento más importante de los tres, aunque pensé que no estaría de más notar los otros dos al mismo tiempo.
  4. Recopile al menos tres semanas de datos. La recopilación de datos es una molestia, especialmente cuando los registra cada hora, pero cuantos más datos, mejores serán sus resultados. Tres semanas de datos le darán 21 puntos de datos por cada hora del día, lo que creo que es un número decente para sacar conclusiones.

Una vez que haya terminado de registrar sus niveles de energía, puede usarlos para ser mucho más productivo. Al hacer un gráfico de sus niveles de energía (y niveles de concentración y motivación, si tiene curiosidad), puede programar las tareas de cada día en función de cuándo tiene más energía, concentración y motivación, ¡y planificar todo el día en consecuencia! También puedes ver visualmente tendencias interesantes en tu día, como qué tan ave mañanera o noctámbulo eres.

Aquí hay algunas cosas que me han funcionado, para programar alrededor de los picos y caídas de mi día típico.

Aprovecha al máximo tus picos de energía

  • Identifique su horario de máxima audiencia biológica y programe en consecuencia. Este es el momento en que sus niveles de energía son los más altos (junto con sus niveles de concentración y motivación, si también los registra, aunque a menudo están altamente correlacionados). Programe sus actividades de mayor apalancamiento durante este tiempo, así como las actividades que requieren la mayor cantidad de energía. Últimamente he estado programando mi tiempo de escritura y entrevistas con los medios durante este tiempo, con resultados asombrosos. Estas son fácilmente las actividades que me brindan el mayor rendimiento, por lo que, naturalmente, quiero aportarles la mayor cantidad de energía posible. Mis mejores horarios biológicos: de 10 a.m. a mediodía y de 6 p.m. a 8 p.m.
  • Preste atención a lo que está comiendo o haciendo. Los picos de energía no son algo bueno cuando van seguidos de un choque (como cuando consume mucha cafeína o azúcar), pero si no lo son, intente aumentar los puntos brillantes en sus niveles de energía seleccionando lo que necesita. comer o hacer para obtener una energía tan increíble.

Aprovecha al máximo tus caídas de energía

  • Recargar. Me gusta programar siestas y descansos durante mis caídas de energía. Si va a tomar una siesta, ¿por qué no hacerlo cuando su energía tiende a disminuir? Del mismo modo, recomiendo encarecidamente tomar descansos cuando su energía baje para que pueda recargar. Si tiene la mayor cantidad de energía al mediodía, ¿por qué querría tomar su descanso para el almuerzo en lugar de tomarlo cuando realmente necesita repostar?
  • Realice actividades que requieran menos energía y concentración. Recientemente, me propuse programar mis actividades de bajo apalancamiento y las actividades para las que necesito menos energía cuando mi energía tiende a decaer. Algunos ejemplos: consultar el correo electrónico, enviar tweets y leer.
  • Encuentra un impulso de energía duradero. Me gusta beber té verde aproximadamente media hora antes de que baje mi energía, para ayudarme a atravesar mis baños con una ola de té verde con cafeína suave. (Además, dado que la mayoría de las personas no se caen tan fuerte después del té verde, me ayuda a prevenir caídas de energía en el futuro). Sin embargo, tenga cuidado con los productos que le brindan solo un pico de energía a corto plazo, porque a menudo colapsará unas horas después de consumirlos.
  • Preste atención a lo que está comiendo. A menudo, su energía disminuye debido a los alimentos azucarados y poco saludables que aumentan los niveles de azúcar en la sangre. Tenga en cuenta si sus caídas de energía se deben a lo que come.

Hacer un gráfico de sus niveles de energía en el transcurso de unas pocas semanas puede ser tedioso, pero las ganancias de productividad que obtendrá al hacerlo son imposibles de ignorar. Especialmente si está buscando profundizar en cómo la comida, la cafeína y la hora del día afectan su productividad, le recomiendo que anote sus niveles de energía.

Escrito porChris Bailey

Chris Bailey ha escrito cientos de artículos sobre el tema de la productividad y es autor de dos libros: Hyperfocus, y El proyecto de productividad. Sus libros se han publicado en 20 idiomas. Chris escribe sobre productividad en este sitio y habla con organizaciones en todo el mundo sobre cómo pueden ser más productivos, sin odiar el proceso.

El boletín ALOP

Después de que te registres, te enviaré un artículo nuevo cada semana o dos que lo ayudará a ser más productivo. Sin spam, nunca.

¡Mi podcast!

¡Mis libros!

Una guía práctica para gestionar tu atención—El recurso más poderoso que tiene para hacer las cosas, ser más creativo y vivir una vida significativa.

Una exploración personal y entretenida de cómo ser más productivos en el trabajo y en todas las facetas de nuestra vida.


EDUCACIÓN GENERAL (44 horas semestrales)

Requisitos de educación general especificados
BIOL 1404 Principios de Biología I (debe aprobarse con una calificación de C o superior para que un estudiante pueda tomar más cursos importantes en Biología)
CHEM 1315 Química general I (debe aprobarse con una calificación de C)

Comunicaciones (9 horas)
Inglés (ENG 1113 y ENG 1213)
Comunicación de voz (COMM 1233 o 2213)

Ciencias sociales y del comportamiento (12 horas)
Ciencias políticas (POSC 1513)
Historia americana (HIST 1513 o 1523)
Ciencias sociales (ECON 2113, GEOG 2723, HIST 3513 o SOC 1113)
Salud física y mental (KIN 1113 o PSY 1113)

Ciencias y Matemáticas (14 horas)
Ciencias Biológicas (BIOL 1404)
Ciencias físicas (CHEM 1315)
Matemáticas (MATH 1303, 1513, 1543, 1613, 2013, 2113, 2143, 2215 o 2283)
Requisito de competencia informática (BIM 1513 o CIS 1003)

Humanidades (9 horas)
Humanidades, filosofía y literatura (ENG 2313, 3893 HUM 2113, 2223, 2313 o PHIL 2113, 2223)
Bellas artes (ART 1003, 1103, 2103, 3013, 3083 MUS 1113, 1123, 3133 THTR 1143, 1183, 2183 o 3183)
Idioma extranjero (CHTW 1513 FREN 1113 GERM 1113 SPAN 1113, 1223 ASL 1113 NS 1213)


Fundamentos de la biología computacional

Los inicios de la biología computacional se remontan esencialmente a los orígenes de la informática. El matemático y lógico británico Alan Turing, a menudo llamado el padre de la informática, utilizó las primeras computadoras para implementar un modelo de morfogénesis biológica (el desarrollo de patrones y formas en los organismos vivos) a principios de la década de 1950, poco antes de su muerte. Aproximadamente al mismo tiempo, una computadora llamada MANIAC, construida en el Laboratorio Nacional de Los Alamos en Nuevo México para la investigación de armas, se aplicó a propósitos tales como modelar códigos genéticos hipotetizados. (Las computadoras pioneras se habían utilizado incluso antes en la década de 1950 para cálculos numéricos en genética de poblaciones, pero los primeros ejemplos de modelos computacionales auténticos en biología fueron el trabajo de Turing y del grupo de Los Alamos).

En la década de 1960, las computadoras se habían utilizado para hacer frente a conjuntos de análisis mucho más variados, a saber, los que examinaban la estructura de las proteínas. Estos desarrollos marcaron el surgimiento de la biología computacional como campo, y se originaron a partir de estudios centrados en la cristalografía de proteínas, en los que los científicos encontraron computadoras indispensables para realizar laboriosos análisis de Fourier para determinar la estructura tridimensional de las proteínas.

A partir de la década de 1950, los taxónomos comenzaron a incorporar computadoras en su trabajo, utilizando las máquinas para ayudar en la clasificación de organismos agrupándolos en base a similitudes de conjuntos de rasgos. Estas taxonomías han sido especialmente útiles para la filogenética (el estudio de las relaciones evolutivas). En la década de 1960, cuando las técnicas existentes se extendieron al nivel de las secuencias de ADN y las secuencias de aminoácidos de las proteínas y se combinaron con un conocimiento creciente de los procesos celulares y las estructuras de las proteínas, se desarrolló un conjunto completamente nuevo de métodos computacionales en apoyo de la filogenética molecular. Estos métodos computacionales implicaron la creación de técnicas cada vez más sofisticadas para la comparación de cadenas de símbolos que se beneficiaron del estudio formal de algoritmos y, en particular, del estudio de la programación dinámica. De hecho, los algoritmos eficientes siempre han sido una preocupación primordial en biología computacional, dada la escala de datos disponibles, y la biología a su vez ha proporcionado ejemplos que han impulsado mucha investigación avanzada en informática. Los ejemplos incluyen algoritmos de gráficos para el mapeo del genoma (el proceso de localizar fragmentos de ADN en los cromosomas) y para ciertos tipos de métodos de secuenciación de péptidos y ADN, algoritmos de agrupamiento para el análisis de expresión génica y reconstrucción filogenética, y coincidencia de patrones para varios problemas de búsqueda de secuencias.

A partir de la década de 1980, la biología computacional se basó en nuevos desarrollos en la informática, incluidos varios aspectos de la inteligencia artificial (IA). Entre estos se encuentran la representación del conocimiento, que contribuyó al desarrollo de ontologías (la representación de conceptos y sus relaciones) que codifican el conocimiento biológico en forma "legible por computadora", y el procesamiento del lenguaje natural, que proporcionó un medio tecnológico para extraer información del texto. en la literatura científica. Quizás lo más significativo es que el subcampo del aprendizaje automático encontró un amplio uso en biología, desde el modelado de secuencias con fines de reconocimiento de patrones hasta el análisis de datos de alta dimensión (complejos) de estudios de expresión génica a gran escala.


3.11.1: Biología: concentraciones de solución y células

  • Contribución de Ed Vitz, John W. Moore, Justin Shorb, Xavier Prat-Resina, Tim Wendorff y Adam Hahn
  • ChemPRIME en la Biblioteca digital de educación química (ChemEd DL)
  • Las diferentes concentraciones de iones de hidrógeno en lados opuestos de una membrana proporcionan la fuerza impulsora para la síntesis de ATP, como lo muestra una animación.
  • La conducción nerviosa depende de los gradientes de concentración de iones Na + y K + dentro y fuera de la célula nerviosa.
  • La ósmosis, causada por diferentes concentraciones de solución dentro y fuera de las células, puede ser fatal tanto para las plantas como para los animales. Poner una planta en agua salada produce marchitamiento y plasmólisis en las plantas (ver Figura), porque el agua se difunde fuera de las células. Los peces de agua dulce mueren rápidamente en agua salada por la misma razón. Si los fluidos intravenosos administrados en cirugía no son isotónico (que tiene la misma concentración `` osmolar '' que el plasma y los glóbulos rojos pueden destruirse. Si la solución intravenosa es hipertónico (concentración demasiado alta), los glóbulos rojos se deforman por formación de células si el I.V. es hipotónico (concentración demasiado baja, los glóbulos rojos explotan por citolisis, como se muestra a continuación.

Hay varias razones por las que las soluciones se encuentran con tanta frecuencia tanto en la naturaleza como en el laboratorio. El tipo de solución más común involucra un líquido solvente que disuelve un sólido sustancia disoluta. (El término solvente generalmente se refiere a la sustancia presente en mayor cantidad.Puede haber más de un soluto disuelto en él.) Debido a que un líquido adopta la forma de su recipiente pero no se expande para llenar todo el espacio disponible, las soluciones líquidas son convenientes de manipular. Puede verterlos fácilmente de un recipiente a otro, y sus volúmenes se miden fácilmente utilizando cilindros graduados, pipetas, buretas, matraces aforados u otro material de vidrio de laboratorio. Además, los átomos o moléculas de sólidos disueltos en un líquido están muy juntos pero aún pueden moverse unos sobre otros. Se contactan entre sí con más frecuencia que si se colocaran dos sólidos uno al lado del otro. Esta & ldquointimidad & rdquo en soluciones líquidas a menudo facilita las reacciones químicas.

Dado que las soluciones ofrecen un medio conveniente para llevar a cabo reacciones químicas, a menudo es necesario saber qué cantidad de una solución reaccionará con una cantidad determinada de otra. Los ejemplos de otras secciones han demostrado que la cantidad de sustancia es la cantidad que determina la cantidad de un material que reaccionará con otro. La facilidad con la que se pueden medir los volúmenes de solución sugiere que sería muy conveniente conocer la cantidad de sustancia disuelta por unidad de volumen de solución. Luego, midiendo un cierto volumen de solución, también estaríamos midiendo una cierta cantidad de sustancia.

los concentración C de una sustancia en una solución (a menudo llamada molaridad) es el cantidad de sustancia por unidad de volumen de solución:

Por lo general, las unidades de moles por decímetro cúbico (mol dm & ndash3) o moles por litro (mol litro & ndash1) se utilizan para expresar la concentración.

Si una sustancia pura es soluble en agua, es fácil preparar una solución de concentración conocida. Se pesa con precisión un recipiente con una muestra de la sustancia y se vierte una masa apropiada de muestra a través de un embudo en un matraz aforado, como se muestra en la Figura 3.3. A continuación, se vuelve a pesar el recipiente. Cualquier sólido adherido al embudo se enjuaga en el matraz y se agrega agua hasta que el matraz esté lleno aproximadamente en tres cuartos. Después de agitar el matraz para disolver el sólido, se agrega agua con cuidado hasta que el fondo del menisco coincida con la marca de calibración en el cuello del flash.


Ver el vídeo: A2 Biology - Glucose to ATP: Calculation (Enero 2022).