Em Defesa do Design Inteligente

Início » Posts etiquetados como 'genética'

Arquivo da tag: genética

Micro RNA – As primeiras previsões da evolução.

Por Darwins Predictions – Cornelius Hunter

[Obs: Texto adaptado a partir do original – O texto original não tem imagens]

 

MiRNA_JRH.jpg

Os genes possuem informações que são usadas para construir moléculas de proteína e RNA que fazem várias tarefas na célula. Um gene é copiado em um processo conhecido como transcrição. No caso de um gene que codifica a proteína, a transcrição é editada e convertida em uma proteína em um processo conhecido como tradução. Tudo isso é guiado por elaborados processos regulatórios que ocorrem antes, durante e após essa sequência de transcrição, edição e tradução.

Por exemplo, trechos de nossos DNA, que foram considerados de pouca utilidade, têm um papel regulador importante. Este DNA é transcrito em vertentes de cerca de 20 nucleótidos, conhecido como micro RNA. Esses pequenos trechos se ligam e interferem com os transcritos de RNA – cópias de genes de DNA – quando a produção do gene precisa ser retardada.

Os Micro RNAs também podem ajudar a modificar o processo de tradução, estimulando o dimensionamento de quadros ribossômico programado. Dois microRNAs se juntam à transcrição de RNA resultando em uma forma de estrutura de RNA de pseudoknot, ou triplex, que faz com que o quadro de leitura ocorra. (Belew)

Os MicroRNAs não vêm apenas do DNA de uma célula. Os MicroRNAs também podem ser importados de células próximas, permitindo assim que as células se comuniquem e se influenciem mutuamente. Isso ajuda a explicar como as células podem se diferenciar em um embrião crescente de acordo com sua posição dentro do embrião. (Carlsbecker)

Os Micro RNAs também podem vir dos alimentos que comemos. Em outras palavras, o alimento não contém apenas carboidratos, proteínas, gorduras, minerais, vitaminas, etc; também contém informações – na forma desses fragmentos regulatórios de micro RNA – que regulam a produção de genes. (Zhang)

Enquanto os micro RNAs regulam a produção de proteínas, os próprios micro RNAs também precisam ser regulados. Portanto, existe uma rede de proteínas que controlam rigorosamente a produção de micro RNA, bem como a remoção deles. “Apenas a pura existência desses reguladores exóticos“, explicou um cientista, “sugere que nossa compreensão sobre as coisas mais básicas – como a forma como uma célula se liga e desliga – é incrivelmente ingênua.” (Hayden)

Duas predições básicas que a teoria evolutiva faz em relação aos micro RNAs são que (i) como toda a biologia, surgiram gradualmente através de variações biológicas ocorrendo aleatoriamente (como mutações) e (ii) como conseqüência dessa origem evolutiva, os micro RNAs devem formar um padrão que se aproxima do padrão de descendência comum da evolução. A ciência atual falsificou essas duas previsões.

É improvável que os micro RNAs tenham evoluído gradualmente através de mutações aleatórias, pois são necessárias muitas mutações. Sem a existência prévia de genes e o processo de síntese proteica, os micro RNAs seriam inúteis. E sem a existência prévia de seus processos regulatórios, os micro RNAs causariam estragos.

Dado o fracasso da primeira previsão, não é surpreendente que a segunda previsão também tenha falhado. As sequências genéticas de micro RNA não se enquadram no padrão de descendência comum esperado. Ou seja, quando comparados entre diferentes espécies, os micro RNAs não se alinham com a árvore evolutiva. Como um cientista explicou: “Olhei para milhares de genes de micro RNA e não consigo encontrar um único exemplo que apoie a árvore [evolutiva] tradicional“. (Dolgin)

Embora existam dúvidas sobre esses novos dados filogenéticos, “o que sabemos nesta fase“, explicou outro evolucionista, “é que temos uma incongruência muito séria“. Em outras palavras, diferentes tipos de dados relatam árvores evolutivas muito diferentes. O conflito é muito maior que as variações estatísticas normais.

 

treeoflifefo.jpg

 

Tem que existir“, acrescentou outro evolucionista, “outras explicações“. Uma explicação é que os micro RNAs evoluem de maneira inesperada. Outra é que a árvore evolutiva tradicional está errada. Ou os evolucionistas podem considerar outras explicações. Mas, em qualquer caso que seja, os micro RNAs são mais um exemplo de evidências que não se encaixam nas expectativas evolutivas. Mais uma vez, a teoria precisará ser modificada de forma complexa para se adequar às novas descobertas.

Entretanto, os cientistas estão descobrindo que a imposição do padrão de descendência comum, onde os micro RNAs devem ser conservados entre as espécies, está dificultando a pesquisa científica:

Esses resultados destacam as limitações que podem resultar da imposição de que os miRNAs sejam conservados nos organismos. Esses requisitos, por sua vez, resultarão em nossos miRNAs de organismos genuínos ausentes e talvez possam explicar por que muitos destes miRNAs novos não foram previamente identificados. (Londin)

A teoria evolutiva vem limitando a ciência. Embora o padrão de descendência comum tenha sido o guia desde os estudos iniciais do micro RNA, esses pesquisadores “se libertaram” dessa restrição, e isso está levando a um bom progresso científico:

Nos primeiros dias de campo do miRNA, houve uma ênfase na identificação de miRNAs que são conservados em organismos… No entanto, miRNAs de espécies específicas também foram descritos e caracterizados como sendo miRNAs que estão presentes apenas em uma ou poucas espécies do mesmo gênero. Portanto, aplicar um requisito de conservação de organismos durante as pesquisas com miRNA é uma barreira que limita o número de miRNAs potenciais que podem ser descobertos, deixando organismos e linhagens específicas de miRNAs ocultos. Em nosso esforço para caracterizar ainda mais o repertório de miRNA humano, nos desprendemos do requisito de conservação… Esses achados sugerem fortemente, a possibilidade de uma ampla gama de miRNA-ome de espécies específicas que ainda não foi caracterizado. (Londin)

As duas predições do micro RNA foram falsificadas e, de forma surpreendente, a hipótese evolutiva prejudicou a pesquisa científica de como os micro RNAs funcionam.

 


 

Referencias

Belew, Ashton T., et. al. 2014. “Ribosomal frameshifting in the CCR5 mRNA is regulated by miRNAs and the NMD pathway.” Nature 512:265-9.

Carlsbecker, Annelie, et. al. 2010. “Cell signalling by microRNA165/6 directs gene dose-dependent root cell fate.” Nature 465:316-21.

Dolgin, Elie. 2012. “Phylogeny: Rewriting evolution.” Nature 486:460-2.

Hayden, Erika Check. 2010. “Human genome at ten: Life is complicated.” Nature464:664-7.

Londin, Eric, et. al. 2015. “Analysis of 13 cell types reveals evidence for the expression of numerous novel primate- and tissue-specific microRNAs.” Proc Natl Acad Sci USA112:E1106-15.

Zhang, L., et. al. 2012. “Exogenous plant MIR168a specifically targets mammalian LDLRAP1: evidence of cross-kingdom regulation by microRNA.” Cell Research 22:107-26.

Anúncios

Visualizando o genoma: Primeiras estruturas 3D de DNA ativo são criadas.

Por Science Daily 

[Obs: Texto adaptado – Vídeos em inglês – Imagem do Science Daily com os devidos crétitos]

170313135018_1_540x360.jpg

Genoma intacto de uma determinada célula estaminal embrionária de rato. Cada um dos  20 cromossomos estão coloridos de forma diferente.

Cientistas determinaram as primeiras estruturas tridimensionais de genomas intactos de células individuais de mamíferos, mostrando como o DNA de todos os cromossomos se dobram intrincadamente, para se encaixar dentro dos núcleos das células.

Pesquisadores da Universidade de Cambridge e do MRC Laboratório de Biologia Molecular usaram uma combinação de imagens e até 100.000 cálculos de onde diferentes partes do DNA estão próximas umas das outras para examinar o genoma em uma célula-tronco embrionária de ratos. As células-tronco são “células-mestre“, que podem se desenvolver – ou “diferenciar” – em quase qualquer tipo de célula dentro do corpo.

A maioria das pessoas estão familiarizadas com a bem conhecida forma ‘X’ dos cromossomos, mas na verdade os cromossomos só assumem essa forma quando a célula se divide. Usando sua nova abordagem, pesquisadores agora foram capazes de determinar as estruturas de cromossomos ativos dentro da célula, e como eles interagem uns com os outros para formarem um genoma intacto. Isso é importante porque o conhecimento da forma como o DNA se dobra dentro da célula permite que cientistas estudem como genes específicos e as regiões de DNA que os controlam, interagem uns com os outros. A estrutura do genoma controla quando e com que intensidade os genes – regiões particulares do DNA – são ligados ou desligados. Isto desempenha um papel crítico no desenvolvimento dos organismos e também, quando dá errado, em doenças.

Os pesquisadores têm ilustrado a estrutura ao acompanhar os vídeos, que mostram o genoma intacto de uma célula-tronco embrionária de ratos. No filme, acima, cada um dos 20 cromossomos da célula estão coloridos de forma diferente.

Em um segundo vídeo, as regiões dos cromossomos onde os genes são ativos, elas estão na cor azul, e as regiões que interagem com a lâmina nuclear (uma rede fibrilar densa dentro do núcleo) são amarelas. A estrutura mostra que o genoma está disposto de tal modo, que as regiões genéticas mais ativas estão no interior e separadas no espaço a partir das regiões menos ativas que se associam com a lâmina nuclear. A segregação consistente dessas regiões, da mesma forma em todas as células, sugere que esses processos poderiam conduzir ao dobramento do cromossomo e do genoma e assim regular eventos celulares importantes, como replicação do DNA e divisão celular.

O professor Ernest Laue, cujo grupo no Departamento de Bioquímica de Cambridge desenvolveu a abordagem, comentou:

“Saber onde estão todos os genes e elementos de controle em um dado momento nos ajudará a entender os mecanismos moleculares que controlam e mantêm sua expressão.

No futuro, vamos ser capazes de estudar como isso muda à medida que as células-tronco se diferenciam e como as decisões são tomadas em células-tronco individuais em desenvolvimento. Até agora, só pudemos observar grupos, ou “populações”, dessas células e, portanto, não conseguimos ver diferenças individuais, pelo menos do lado de fora. Atualmente, esses mecanismos são mal compreendidos e compreendê-los pode ser fundamental para a realização do potencial das células estaminais na medicina.” [Enfase deste blog]

A pesquisa, realizada por cientistas dos Departamentos de Bioquímica, Química e do Wellcome-MRC Stem Cell Institute da Universidade de Cambridge, juntamente com colegas do Laboratório de Biologia Molecular do MRC, foi publicada (13.Mar.2017) hoje na revista Nature.

O Dr. Tom Collins, da equipe de Genética e Ciências Moleculares da Wellcome, disse:

“Visualizar um genoma em 3D com um nível de detalhe sem precedentes é um passo emocionante na pesquisa e que já está sendo realizado há muitos anos. Os princípios subjacentes que regem a organização dos nossos genomas – por exemplo, como os cromossomos interagem ou como a estrutura pode influenciar se os genes são ligados ou desligados. Se pudermos aplicar este método para células com genomas anormais, como as células cancerosas, podemos ser capazes de entender melhor, o que exatamente, dá errado, causando doenças, e como nós poderíamos desenvolver soluções para corrigir isso.

Vídeo 1: https://www.youtube.com/watch?v=1Fyq9ul9N9Q

Vídeo 2: https://www.youtube.com/watch?v=zBzdvhwtG5A


 

 

Story Source:

Materials provided by University of Cambridge. Note: Content may be edited for style and length.

Journal Reference:

  1. Stevens, TJ et al. 3D structures of individual mammalian genomes studied by single-cell Hi-C. Nature, 3 March 2017 DOI: 10.1038/nature21429

Dois mecanismos revisam a tradução do DNA. Faça disso três.

Por Evolution News 

[ Obs: Titulo e texto adaptados a partir do original – O artigo possui links no original em inglês – Imagem do EnV com seus devidos créditos ]

obama_healthcare_speech_draft

A própria ideia de que as células revisam suas informações genéticas torna o design inteligente intuitivamente óbvio. Não se revisa jargão (linguagem sem nexo). Se as células tivessem pavimentado conjuntos aleatórios de blocos, não importaria realmente a ordem que em eles estivessem reunidos. Sabemos, é claro, que a sequência é importante: a maioria das mutações causam doença ou morte. Revisão é prova por excelência que a informação genética representa a informação real, do tipo encontrada nos livros e nos softwares. Defensores do DI não acham surpreendente, portanto, que as células vão muito longe para proteger suas informações genéticas.

O “controle de qualidade” celular tem sido reconhecido na literatura há algum tempo. De fato, o Prêmio Nobel de Química em 2015 foi para três cientistas que descobriram mecanismos de reparo do DNA. As células inspecionam e corrigem suas macromoléculas informacionais em todas as fases: na transcrição, na tradução e durante a modificação pós-tradução.

Existem máquinas moleculares em movimento inspecionando outras máquinas em trabalho na célula. Elas reconhecem as proteínas dobradas e as marcam para degradação. E quando a célula se divide, as máquinas moleculares verificam cada letra quando as cadeias do DNA são duplicadas. As células estão em atividade de “controle de qualidade”.

Revisão, no entanto, é um passo além da reparação. Uma célula pode reparar uma cadeia quebrada de DNA, sem levar em conta a sequência de “letras” nucleotídicas. A revisão real deve garantir a precisão da própria sequência. A célula verifica erros de digitação? Absolutamente.

Um artigo na Proceedings of the National Academy of Sciences compartilhou novas evidências que suportam a questão do design. Pesquisadores da Universidade de Uppsala, na Suécia, encontraram não apenas uma, mas duas etapas de revisão independente no ribossomo além da que já era conhecida.

Elas ocorrem onde transcritos de RNA mensageiro são traduzidos em proteínas. O título diz que: “Duas etapas de revisão amplificam a precisão da tradução de códigos genéticos”. Aqui está a declaração sobre o significado da descoberta:

Descobrimos que dois passos de revisão amplificam a precisão da leitura do código genético, não um passo, como até agora se acreditava. Nós caracterizamos a base molecular de cada um destes passos, pavimentando o caminho para a análise estrutural em conjunto com a estrutura baseada em cálculos de energia livre padrão. Nosso trabalho destaca o papel essencial do fator de alongamento Tu para a tradução precisa do código genético, tanto na seleção inicial quanto na revisão. Nossos resultados têm implicações para a evolução da leitura eficiente e precisa do código genético através da revisão em vários passos, o que atenua os efeitos, doutra forma prejudiciais, ocorrido na compensação obrigatória entre eficiência e precisão na seleção do substrato feito por enzimas. [Enfase adicionada.]

Se você se lembra da animação dos passos de tradução em Unlocking the Mystery of Life (Desbloqueando o Mistério da Vida), lembre-se que os transcritos do RNA mensageiro (mRNA) são lidos em conjuntos de três letras (codons). Correspondendo aos codões de mRNA, estão as moléculas de RNA de transferência (tRNA), cada uma equipada com um “anticodon” correspondente numa extremidade e um aminoácido na outra extremidade (quando carregadas, são chamadas aminoacil-tRNAs ou aa-tRNAs). Como os codões e anticódons se emparelham em arquivo único dentro do ribossomo, os aminoácidos se fixam em arquivo único com ligações peptídicas.  A crescente cadeia polipeptídica irá se tornar uma proteína após a tradução ser completada.  Adicionalmente, as “chaperonas” moleculares asseguram que as cadeias polipeptídicas resultantes sejam dobradas corretamente em máquinas moleculares funcionais.

A equipe de Uppsala examinou o ribossomo para dar uma olhada no passo onde o tRNA encontra o mRNA. Eles sabiam que a seleção do tRNA correto era um primeiro passo crucial, inicialmente previsto por Linus Pauling sete décadas atrás. Quando a precisão medida na tradução mostrou-se realmente maior do que Pauling predisse, os biólogos moleculares suspeitaram que algum tipo de mecanismo de correção de erro deveria estar funcionando. Um mecanismo de revisão foi posteriormente encontrado no ribossomo. Mas como isso funciona? Podemos nos relacionar com revisores humanos, mas como as moléculas sem olhos são corrigidas no escuro dentro de um ribossomo?

A amplificação de precisão por revisão exige que o descarte de substrato seja conduzido por uma diminuição do potencial químico desde a entrada de um substrato até sua saída ao longo do caminho de revisão. Uma maneira de programar tal queda no potencial químico é acoplar o descarte de substratos por revisão a hidrólise de GTP ou ATP com alto potencial químico com o baixo potencial químico de seus produtos hidrolíticos.

Resumindo, a revisão precisa ser eficiente em termos de energia, mas não acontecerá sem o gasto de uma molécula rica em energia para empurrá-la. A reação deve favorecer a obtenção da molécula certa onde ela pertence.

Os bioquímicos sabiam que cada aa-tRNA teria de ser preparada para o seu papel através da ligação a um assistente chamada Fator  Elongation Tu (EF-Tu), mais uma molécula de combustível, GTP. Mas, depois desse passo, os autores encontraram outros dois:

Descobrimos que o ribossomo bacteriano utiliza dois passos de revisão seguindo a seleção inicial de RNAs de transferência (tRNAs) para manter uma elevada precisão da tradução do código genético. Isto significa que existem três passos de seleção para o reconhecimento de codões feito por aa-tRNAs. Em primeiro lugar, existe uma seleção inicial de codões por aa-tRNA no complexo ternário com o fator de alongamento Tu (EF-Tu) e GTP. Em segundo lugar, há revisão do aa-tRNA no complexo ternário com EF-Tu e PIB. Terceiro, há revisão de aa-tRNA na forma EF-Tu-independente, presumivelmente após a dissociação de EF-Tu · GDP do ribossomo (Figura 1).

Isto amplifica significativamente a precisão da tradução. “Embora já tenha sido reconhecido que a revisão em vários passos confere maior precisão e eficiência cinética em substrato-seletivo, via reações catalisadas por enzimas do que passo único de revisão”, dizem eles, “tem sido tomado como certo que existe apenas um único passo de revisão na seleção de tRNA no ribossomo tradutor”.

As novas descobertas lançam nova luz sobre os passos moleculares reais, necessários para a correção de alta precisão. E, embora seu trabalho tenha sido feito em bactérias, “sugerimos que os mecanismos de revisão em dois estágios funcionem não apenas em bactérias, mas também em eucariotos e, talvez, em todos os três reinos da vida”.

Como um evolucionista explica isso? No início do artigo, eles dizem: “Sugerimos que a revisão em vários passos na tradução de códigos genéticos tenha evoluído para neutralizar possíveis pontos potenciais de erro, na seleção inicial do(s) aa-tRNA(s) propenso(s) a erro(s) no complexo ternário com EF-Tu e GTP”.

Mas isso não pode ser verdade. É uma declaração teleológica. A seleção natural não pode “evoluir para” fazer nada. Logo depois no artigo, eles se concentram mais na questão, apresentando o enredo como um conto de fadas evolutivo: “Por que a Mãe Natureza evoluiu duas etapas de revisão na tradução de códigos genéticos?”.

A existência de dois passos distintos de revisão pode parecer surpreendente, porque a precisão da seleção inicial do codão pelo complexo ternário é normalmente notavelmente alta. Por conseguinte, sugerimos que a revisão em dois passos evoluiu para neutralizar os efeitos deletérios de um pequeno número de pontos de erro distintos para a seleção inicial do codão observada in vitro e in vivo.

Isso deve causar ainda mais tristeza para o neodarwinismo, porque mostra que a revisão de um único passo “normalmente é notavelmente alta”.  Em essência, a célula verifica a sua tradução, já precisa. Eles realmente usam a palavra “revendo” para descrever isso. Eles estimam que a revisão forneça um aumento de milhões de vezes em precisão, muito acima da modesta amplificação de revisão na gama dos trezentos, observada aqui.

Além da descoberta inesperada de duas etapas de revisão, o presente estudo identificou a base estrutural do primeiro passo EF-Tu-dependente e sugeriu características mecanicistas de ambas as etapas de revisão. Esses achados facilitarão a análise estrutural das etapas de revisão, junto com cálculos baseados na estrutura de suas energias livres padronizadas que codificam codões, para uma compreensão mais profunda da evolução da leitura precisa do código genético.

Outros Exemplos de Sistemas Redundantes na Célula.

Este não é o único caso de sistemas múltiplos e independentes na célula. Três pesquisadores em Massachusetts, também publicando na Proceedings of the National Academy of Sciences , descobriram mecanismos redundantes para reparar rupturas de cadeia dupla no DNA.  As duas vias, NHEJ e MMEJ, podem funcionar como sistemas primários e de backup. “É possível que haja redundância parcial entre as vias NHEJ e MMEJ, com MMEJ servindo como um backup e NHEJ sendo o principal mecanismo.” O caminho do backup contribui para a reparação de algumas rupturas duplas, mas não todas. Posts anteriores aqui no Evolution News apontaram redundância em sistemas biológicos, como este, afirmando que os “caminhos são organizados em uma rede entrelaçada, muitas vezes redundante, com arquitetura que está intimamente relacionada com a robustez do processamento de informação celular”. Outro artigo apontou que os cromossomos parecem ter um sítio de backup para centrômeros.

O que aprendemos nesses artigos combina bem com o que David Snoke disse em um podcast do ID the Future sobre a Biologia de Sistemas como a maneira do engenheiro de olhar a vida (para mais, veja isto de Casey Luskin). Engenheiros entendem conceitos como backups, redundância, dupla verificação e controle de qualidade. Eles percebem que há tradeoffs entre precisão e velocidade, assim, eles buscam aperfeiçoar os requisitos de projetos concorrentes.

Em vez da visão de baixo para cima do reducionista, o biólogo de sistemas toma a visão de cima para baixo: como todos os componentes funcionam juntos como um sistema? Na prática, diz ele, os biólogos de sistemas procuram entender os seres vivos como exemplos de sistemas otimizados, e também a “engenharia reversa” deles de maneiras inovadoras. Em ambos os contextos, o design inteligente – não a evolução darwiniana – é o conceito operacional que conduz a ciência.

Como refutar o Design Inteligente?

Ao demonstrar um caso credível, empiricamente observado, em que o acaso cego e / ou necessidade mecânica cria organização complexa funcionalmente específica e informações associadas além de 500 – 1.000 bits … A premissa indutiva chave da teoria do projeto (ID), entra em colapso.

 

software-screen5

A complexa gramática da linguagem genômica. [Mas isso é Design Inteligente escancarado! – Jeph Simple]

Publicado pelo Science Daily.

Título do Science Daily: A complexa gramática da linguagem genômica. (Complex grammar of the genomic language)

 

Codons_aminoacids_table

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A “gramática” do código genético humano é mais complexa do que isso, até mesmo mais que idiomas (do mundo todo) construídos de forma muito mais elaborada ( que outros idiomas). Os resultados explicam por que o genoma humano é tão difícil de decifrar – e contribuem para um maior entendimento de como as diferenças genéticas afetam o risco de desenvolvimento de doenças a nível individual.

Um novo estudo do Instituto Karolinska na Suécia mostra que a “gramática” do código genético humano é mais complexa do que isso (ou seja, que nossa gramática), mesmo diante dos idiomas (do mundo todo) construídos de forma muito mais elaborada. Os resultados, publicados na revista Nature, explicam por que o genoma humano é tão difícil de decifrar – e contribui para um maior entendimento de como as diferenças genéticas afetam o risco de desenvolvimento de doenças a nível individual.

O genoma contém todas as informações necessárias para construir e manter um organismo, mas também mantém os detalhes de um indivíduo com risco de desenvolvimento de doenças comuns, tais como diabetes, doenças cardíacas e câncer“, diz o autor principal do estudo, Arttu Jolma, estudante de doutorado no Departamento de Biociências e Nutrição. “Se nós podemos melhorar a nossa capacidade de ler e compreender o genoma humano, assim também, seremos capazes de fazer melhor uso da informação genômica; que rapidamente se acumula em um grande número de doenças, para benefícios médicos.

A sequenciação do genoma humano em 2000 revelou como as 3 bilhões de letras  A, C, G e T, que compõem o genoma humano , são ordenadas. No entanto, sabendo apenas a ordem das letras não é suficiente para traduzir as descobertas da genômica em benefícios médicos; também é preciso entender o que as sequências de letras significam. Em outras palavras, é necessário identificar as “palavras” e “gramática” da língua do genoma.

acting1

As células do nosso corpo têm genomas quase idênticos, mas que diferem um do outro devido a diferentes genes que estão ativos (expressos) em diferentes tipos de células. Cada gene tem uma região reguladora que contém as instruções de controlo, quando e onde o gene é expresso. Este código regulador do gene é lido por proteínas chamadas fatores de transcrição que se ligam ao “DNA words”  específico e, ou aumentam ou diminuem a expressão do gene associado.

Sob a supervisão do Professor Jussi Taipale, pesquisadores do Karolinska Institutet já identificaram a maioria das palavras de DNA reconhecidas por fatores de transcrição individuais. No entanto, tal como na linguagem humana natural, as palavras do DNA podem ser unidas para formarem palavras compostas, que são lidas por vários factores de transcrição. No entanto, o mecanismo pelo qual tais palavras compostas são lidas não foi analisado anteriormente. Por isso, em seu estudo recente na revista Nature, a equipe de Taipale examina as preferências de ligação dos pares de fatores de transcrição, e sistematicamente mapeia as palavras que se ligam no DNA composto.

A análise revela que a gramática do código genético é muito mais complexa que os mais complexos idiomas humanos. Em vez de simplesmente juntar duas palavras entre si por um espaço de exclusão, as palavras individuais que são unidas em palavras compostas de DNA são alteradas, levando a um grande número de palavras completamente novas.

“Nosso estudo identificou muitas dessas palavras, aumentando a compreensão de como os genes são regulados, tanto no seu desenvolvimento normal quanto no do câncer”, diz Arttu Jolma. “Os resultados abrem caminho para decifrar o código genético que controla a expressão de genes.”

[Grifo meu]

[Texto adaptado]

Journal Reference:

  1. Arttu Jolma, Yimeng Yin, Kazuhiro R. Nitta, Kashyap Dave, Alexander Popov, Minna Taipale, Martin Enge, Teemu Kivioja, Ekaterina Morgunova, Jussi Taipale. DNA-dependent formation of transcription factor pairs alters their binding specificity. Nature, 2015; DOI:10.1038/nature15518

A linguagem codificada escrita em microtúbulos, o esqueleto da célula, e como isso ressalta surpreendentemente a origem inteligente da vida. – PARTE II

Continuação desse artigo.

… … A emergência evolutiva gradual de células eucarióticas não é factível para mais uma razão, descrita aqui.

 

424340189_847318749893607_207055552_95759429837271104

 

 

 

 

 

 

 

 

 

Quando incorporados em microtúbulos, tubulina acumula um número de modificações pós-traducionais, muitos dos quais são únicos para estas proteínas. Estas modificações incluem detyrosination, acetilação, polyglutamylation, polyglycylation, fosforilação, ubiquitinação, sumoilação, e palmitoilação. O heterodímero α- e β-tubulina sofre múltiplas modificações pós-traducionais (PTMs). As subunidades de tubulina são modificadas de maneira não uniforme distribuídas ao longo de microtúbulos. Análogo ao modelo do “código de histonas” na cromatina, são propostas diversas PTMs para formar um bioquímico “código tubulin” que pode ser “lido” por fatores que interagem com microtúbulos.
Este é um fato relevante e incrível, e levanta a questão de como o “código tubulin” ao lado de vários outros códigos na célula emergiu. A meu ver, mais uma vez, isso mostra que a inteligência foi necessária para criar essas estruturas biomoleculares surpreendentes; formação de informação codificada sempre demonstrou ser capaz apenas de ser produzida por mentes inteligentes. Além disso: Que utilidade teria o código tubulin , se nenhum objetivo específico foi concebido antecipadamente, ou seja, ele agir como emissor, e se não houver nenhum destino das informações, não há razão do código existir em primeiro lugar. Assim, ambos, o emissor e o receptor, devem existir primeiro como hardware, que é o de microtúbulos com as unidades de tubulina modificados pós-transcricionalmente em uma conformação codificada especificada e o receptor, que pode ser Cinesina ou proteínas do motor de miosina, que são direcionados para o destino correto para exercer trabalhos específicos, ou outras proteínas dirigidas para tarefas específicas.

 

 

F1.large

 

Tomados em conjunto, múltiplas e complexas PMTs ( post-modificação transcricional) de tubulinas fornecem uma miríade de possibilidades combinatórias para especificamente ‘etiquetar’ subpopulações de microtúbulos em células, destinando-os para funções precisas. Como esta tubulina ou código de microtúbulos permite que as células se dividem, migram, comunicam e diferenciam-se de uma maneira ordenada é uma pergunta interessante a se responder num futuro próximo. Percepções iniciais já revelaram os potenciais papéis de PMTs tubulina em uma série de patologias humanas, como o câncer, neurodegeneração e ciliopatias.
Não só tem que ser elucidado como a tubulina ou código de microtúbulos permite que as células façam todos esses trabalhos, mas também o que explica melhor o seu surgimento e codificação. A maioria destas enzimas são específicas para tubulina e modificações pós translacionais de microtúbulos. Estas enzimas só são usadas se existirem microtúbulos. Os microtúbulos, contudo, exigem estas enzimas para modificar suas estruturas. Portanto, pode-se concluir que eles são interdependentes e não poderiam surgir de forma independente por mecanismos evolutivos naturais.
Uma hipótese que emerge é que modificações de tubulina especificam um código que determina resultados biológicos através de alterações na estrutura de ordem superior de microtúbulos e / ou por recrutamento e interagindo com proteínas efetoras. Esta hipótese é análoga à hipótese do código de histonas – que modificações em histonas nucleares, agindo de forma combinatória ou sequencial, especificam múltiplas funções da cromatina, tais como mudanças na estrutura da cromatina de ordem superior ou ativação seletiva de transcrição. Os paralelos aparentes entre estes dois tipos de quadros estruturais, a cromatina no núcleo e microtúbulos no citoplasma, são intrigantes
Não é evidência impressionante de um designer comum que inventou ambos os códigos?

 

Os microtúbulos são tipicamente nucleados ( montados peça a peça mediante os “blocos de construção ” de microtúbulos chamados tubulins ) e organizados pela organela dedicada chamada centro de organização de microtúbulos (MTOCs). Contido dentro da MTOC, há um outro tipo de tubulina, chamada γ-tubulina, que é distinta das subunidades α- e β dos próprios microtúbulos. A γ-tubulina combina com várias outras proteínas associadas para formar uma estrutura semelhante a uma anilha de bloqueio do tipo conhecido como o complexo γ-tubulina anel “(γ-UTRA) Este complexo atua como um modelo para colocação e montagem de α/β dímeros de p-tubulina para começar a polimerização; atua como um tampão de o (-) final, enquanto o crescimento dos microtúbulos continua se distanciando da MTOC na direcção (+) . O núcleo essencial chamado complexo pequeno (γTuSC) γ-tubulina é a parte central conservada da máquina de nucleação de microtúbulos, e é encontrado em quase todos os eucariotas.

 

Continua … … … 

O incrível spliceosome , a máquina macromolecular mais complexa conhecida, e processamento de pré-mRNA em células eucarióticas

Por Angelo Grasso

 

 

Ao longo do caminho para fazer proteínas em células eucarióticas, há toda uma cadeia de eventos subsequentes que devem estar simultaneamente plenamente operacionais, bem como as máquinas prontas no local, a fim de obter o produto funcional, isto é proteínas. No início do processo, o DNA é transcrito na máquina molecular de RNA-polimerase, para se obter o RNA mensageiro (mRNA), que depois tem de passar por modificações pós-transcricionais. Isso é tampando o mRNA, fase chamada de alongamento, o splicing, corte, poliadenilação e terminação, antes que possa ser exportado a partir do núcleo para o CITOSSOL, e síntese protéica iniciada, (TRADUÇÃO), e a conclusão da síntese de proteína e dobra das proteínas.
mRNAs bacterianas são sintetizadas pela polimerase de RNA, a transcrição partindo e parando em pontos específicos no genoma. A situação em eucariotas é substancialmente diferente. Em particular, a transcrição é apenas o primeiro de vários passos necessários para a produção de uma molécula de mRNA madura. O RNA maduro para muitos genes é codificado de uma maneira descontínua numa série de exões discretos, que são separados um do outro ao longo da cadeia de RNA por intrões não-codificantes. mRNA, rRNA, e tRNA podem conter intrões que devem ser removidos a partir de RNAs do precursor para produzir moleculas funcionais . A tarefa formidável de identificação e junção para unir exões entre todos os RNA’s intrônicos é realizada por uma máquina grande de ribonucleoproteína, chamada spliceossoma, qual é composta de várias pequenas ribonucleoproteínas nucleares individuais, cinco snRNPs, pronuncia-se ” snurps “, (U1, U2, U4, U5 e U6), cada uma contendo uma molécula de RNA chamada de snRNA que tem geralmente 100-300 nucleótidos de comprimento, além de fatores adicionais de proteínas que reconhecem sequências específicas do mRNA ou promovem rearranjos conformacionais na spliceosoma necessário para a reação de splicing a progressão, e muitas proteínas adicionais a mais que vão e vêm durante a reação de agregação. Ele foi descrito como uma das ” máquinas mais complexas macromoleculares conhecidas”, composta por mais de 300 proteínas distintas e cinco RNAs“.
Os snRNAs realizam muitos dos eventos de reconhecimento de mRNA do spliceosome. Sequências de consenso local Splice são reconhecidas por fatores não-snRNP; a sequência de ramo de ponto é reconhecida pela proteína de ramo de ligação ponto-(BBP), e o aparelho de polipirimidina e 3 ‘local de splicing estão ligados por dois componentes proteicos específicos de um complexo de splicing referidos como U2AF (U2 fator auxiliar), U2AF65 e U2AF35, respectivamente.
Este é mais um grande exemplo de uma máquina molecular surpreendentemente complexa, que vai operar e exercer a sua função orquestrada precisa corretamente somente com todos os componentes totalmente desenvolvidos e formados e capazes de interagir de uma maneira altamente complexa, ordenada, precisa. Ambos, o software e o hardware, devem estar no local totalmente desenvolvidos, ou o mecanismo não iria funcionar. Nenhum estágio intermediário iria fazer o trabalho. E nem snRNPs (U1, U2, U4, U5 e U6) têm qualquer função, se não totalmente desenvolvidos. E mesmo se eles estivessem lá, sem a proteína ramo de ligação ponto-(BBP) no lugar, nada feito também, desde que o local de splicing correto não poderia ser reconhecido. E os íntrons e éxons não tinham que surgir em simultâneo com a spliceosome? Não admira, que o artigo científico: “Origem e evolução de íntrons spliceosomal” admite: Evolução da estrutura éxon-íntron dos genes eucarióticos tem sido uma questão de longa data, de debate intensivo, e conclui que: A elucidação do quadro geral da evolução da arquitetura gene eucarionte de maneira alguma implica que os principais problemas no estudo da evolução e função intron foram resolvidos. Muito pelo contrário, as questões fundamentais continua em aberto. Se a primeira etapa evolutiva teria sido o surgimento de íntrons self-splicing do Grupo II, então a questão se seguiria: Por que a evolução não parou por aí, já que esse método funciona muito bem?

 

3-05_The-Spliceosome

 

Não há roteiro crível, como íntrons e éxons, e a função de emenda poderia ter surgido de forma gradual. Que utilidade o spliceosome teria , se os elementos essenciais para reconhecer a sequência e fatia a ser cortada não estaria no lugar? O que aconteceria, se o mRNA com pré éxons e íntrons estivessem no local, mas o spliceosome não estivesse pronto no lugar para fazer a modificação pós-transcricional ? E nem o código de splicing, que direciona a maneira em que a emenda deve ser feita ?

 

No artigo: “junk” DNA ESCONDE INSTRUÇÕES DE MONTAGEM, o autor, Wang, observa que splicing “é um processo rigorosamente regulado, e um grande número de doenças são causadas pela” falha de regulação ‘de splicing em que o gene não foi cortado e colado corretamente. ” Splicing incorreta na célula pode ter conseqüências terríveis como o produto desejado não ser produzido, e muitas vezes os produtos errados podem ser tóxicos para a célula. Por esta razão, foi proposto que ATPases são importantes para mecanismos de revisão ” que promovem a fidelidade na selecção do local de splice. No livro Essentials of Molecular Biology , George Malacinski ressalta por que a produção de polipeptídeos adequados é fundamental:

“Uma célula não pode, evidentemente, se dar ao luxo de perder qualquer uma das junções de processamento por até mesmo um único nucleótido, porque isto poderia resultar numa interrupção da fase de leitura correta, levando a uma proteína truncada.”

 

 

Após a ligação destes componentes iniciais, o resto do aparelho de emenda monta-os em torno dos componentes do mRNA, e em alguns casos, até deslocando alguns dos componentes anteriormente ligados.

 

Pergunta: Como é que as informações para montar o aparelho de emenda corretamente surgiram gradualmente? A fim de fazer isso, tinham as peças para montar esta maquina nanomolecular formidável não ter que estar lá, no local da montagem, totalmente desenvolvidos e especificados e prontos para o recrutamento? Tinha a disponibilidade destes componentes não ter que ser sincronizada, de modo que, em algum ponto, quer individualmente ou em combinação, eles foram todos disponíveis, ao mesmo tempo? Tinha a montagem não ter que ser coordenada no modo e na maneira certa desde o início? As partes não tinham que ser compatíveis entre si, e capaz de corretamente ‘interagir’? Mesmo se os sistemas sub ou partes são colocados juntos na ordem certa, eles também precisam estar com a interface correta desde o primeiro momento.
Será que é imaginável que esta máquina complexa fosse o resultado de um desenvolvimento evolutivo progressivo, em que as moléculas simples são o início da cadeia de biossíntese e são, em seguida desenvolvidas progressivamente em passos sequenciais, se o objetivo final não é conhecido pelo processo e mecanismo de promoção do desenvolvimento? Como poderia cada produto intermediário no caminho ser um ponto final da via, se este ponto final intermediário não apresentava função? Cada ponto de desenvolvimento intermediário não tinha que ser utilizável como um produto final com aptidão de sobrevivência maior? E como poderia ser utilizável, se a cadeia de sequência de aminoácidos tinha apenas uma fracção da sequência totalmente desenvolvida? Conhecimento molecular é a quantidade mínima de informação útil para um gene necessário para ter qualquer função. Se um gene não contém conhecimento molecular, então ele não tem nenhuma função, ele não confere qualquer vantagem seletiva. Assim, antes de uma região do DNA conter o conhecimento molecular necessário, a seleção natural não desempenha nenhum papel em guiar a sua evolução.

 

Assim, o conhecimento molecular pode ser relacionado a uma probabilidade de evolução.
Como poderia passos sucessivos ser adicionados para melhorar a eficiência de um produto onde não havia nenhum uso para ele nesta fase? Apesar do fato de que os defensores do naturalismo abraçarem este tipo de cenário, parece óbvio que é extremamente improvável que seja possível desta maneira.

 

Martin e Koonin admitem em seu artigo “Hipóteses: Introns e a origem da compartimentalização núcleo-citoplasma,“: A transição para splicing-dependente do spliceosome também vai impor uma demanda implacável para invenções, além do spliceosome. E além disso: Mais recente é o reconhecimento que não há praticamente nenhum grau evolutivo detectável na origem do spliceosome, que aparentemente estava presente em seu estado de pleno direito no ancestral comum de linhagens eucarióticas estudadas até agora. Isso é uma admissão surpreendente.
Isto significa que o spliceosome apareceu completamente formado quase abruptamente, e que a invasão íntron teve lugar durante um curto período de tempo e não mudou em supostamente centenas de milhões de anos.

 

0266Em outro artigo interessante: Quebrando o segundo código genético, os autores escrevem : As instruções genéticas de organismos complexos exibem um recurso contra-intuitivo não compartilhado por genomas mais simples: sequências de nucleótidos que codificam uma proteína (éxons) são interrompidos por outras regiões de nucleótidos que parecem ter nenhuma informação (íntrons). Esta organização bizarra de mensagens genéticas forçam células a remover íntrons do mRNA precursor (pré-mRNA) e, em seguida, emendar juntos os éxons para gerar instruções traduzíveis. Uma vantagem do presente mecanismo é que ele permite que diferentes células para escolher meios alternativos de splicing de pré-mRNA e, assim, gera diversas mensagens a partir de um único gene. As variantes podem, em seguida codificar proteínas diferentes com funções distintas. Uma dificuldade com a compreensão de splicing alternativo de mRNA de pré-seleção é a de que os exões particulares em mRNAs maduros não são determinados apenas por sequências de intrões adjacentes aos limites de exão, mas também por uma série de outros elementos de sequências presentes em ambos os exões e intrões. Estas sequências auxiliares são reconhecidas por fatores reguladores que auxiliam ou impedem a função do spliceossoma – a maquinaria molecular responsável pela remoção do intrão.
Além disso, o acoplamento entre o processamento do RNA e transcrição do gene influencia o splicing alternativo, e dados recentes implicam a embalagem de DNA com proteínas histonas e modificações covalentes das histonas – o código epigenético – na regulação do splicing. A interação entre a histona e os códigos de emenda terá, portanto, que ser precisamente formulada nas abordagens futuras.
Pergunta: Como é que os mecanismos naturais forneceriam o ajuste fino, sincronização e coordenação entre a histona e os códigos de emenda? Em primeiro lugar, estes dois códigos e as proteínas transportadoras e moléculas (a hardware e software) teriam que emergir por eles mesmos, e em uma segunda etapa orquestrar a sua coordenação. Por que é razoável acreditar, que as reações químicas não guiadas, aleatórias seriam capaz de sair com funções organismal imensamente complexas?
Fazale Rana :

Surpreendente é o fato de outros códigos, tais como o código de ligação a histona, o código de ligação de fator de transcrição, o código de splicing, e o código de estrutura secundária de RNA, o código glycan, e o código de tubulins se sobrepoem ao código genético. Cada um destes códigos desempenha um papel especial na expressão do gene, mas eles também devem trabalhar em conjunto de forma coerente e integrada.

 

 

Obs: No texto postado pelo autor podes acessar aos links, referências.

As imagens do texto são a partir da web.

Porque os darwinistas estão furiosos com o projeto ENCODE? Livnat explica.

Por Wallace Barbosa.

 

12046730_611679085639402_635619911366002711_n

 

Uma das maiores ambições do mundo científico é compreender o genoma humano (DNA) em sua totalidade, e um dos maiores passos nesse sentido foi o Projeto Genoma Humano, iniciado em 1988 [1]. Dada a complexidade do nosso DNA (e a tecnologia menos avançada da época), o primeiro esboço do genoma inteiro só veio a ser divulgado em 2000, levando mais 3 anos para a divulgação de sua forma definitiva [1].

Apesar de o genoma ter sido completamente mapeado, logo ficou claro que os cientistas não chegaram nem perto de atingir seu objetivo final. Dos mais de 3.2 bilhões de bases pareadas do nosso DNA, menos de 2% representa a região responsável por codificar proteínas (isto é, que possuem “instruções” sobre como “montá-las”) [2]. Ou seja, ~98% do DNA se mostrou um completo mistério e, graças ao pensamento darwinista, essa vasta região foi e ainda é rotulada como “junk DNA” (DNA lixo), mera “sucata” acumulada durante bilhões de anos de história e “experimentos” evolutivos.[3]

 

junk-dna-header-600x200

 

 

 

 

 

 

A fim de elucidar a função dessa região, surgiu o projeto internacional ENCODE (Enciclopédia de Elementos do DNA) em 2003, contando com a participação de 27 institutos [4]. Em 2012, a bomba: em um artigo assinado por todos os líderes do projeto, divulgou-se que ao menos 80.4% do genoma humano é ativo, funcional [5][6]! Eu uso o termo “bomba” porque essa notícia se tornou o estopim de uma verdadeira controvérsia acadêmica, justamente por ter instigado a ira de um certo grupo… Sim, é claro que estou me referindo aos biólogos evolutivos, que logo publicaram críticas exasperadas contra o projeto ENCODE (contra o percentual citado acima e contra a afirmação de que “todos os livros didáticos estão errados[6], feita por um dos líderes do ENCODE), a exemplo de Dan Graur [6] e W. F. Doolitler [7], entre outros.

Aparentemente, o embate é motivado pela definição de “função” usada pela equipe do ENCODE (para eles, funcionalidade é atribuída a segmentos no genoma que codificam um produto definido (e.g. proteína ou RNA não-codificante (ncRNA)) ou demonstram uma assinatura bioquímica (segmentos onde proteínas se ligam; encontrados em regiões de cromatina aberta; localizados em regiões contendo acentuassomos (enhancers); segmentos que contenham uma região CpG metilada ou que sejam associados a histonas [5, 6]). Para Graur e colegas darwinistas, “função” significa uma região “conservada” pela seleção “purificadora” que não pode ser sujeita a mutações deletérias [6], encontrada em duas ou mais espécies próximas [8].

Todavia, como podemos ler nas palavras de Adi Livnat citadas na imagem, a disputa contra os 80% é claramente causada por sua incompatibilidade com o paradigma darwinista tradicional que impera desde os anos 30 (data de origem da síntese moderna), que defende que mutações benéficas que se acumulariam ao ponto de gerarem alguma função (e.g. um gene que produza uma proteína responsável por um fenótipo) seriam conservadas pela seleção natural. Mas, para gerar um só gene operante, muitas tentativas falhas ocorreriam, gerando um monte de sucata acumulada.

Desse modo, o apego dos darwinistas ao tal paradigma supera até a sede e respeito pelo progresso científico… E não estou blefando, como podemos ver nas palavras de Doolitle:

‘Eu sugerirei que nós, como biólogos, defendamos a concepção tradicional de função: a publicidade ao redor do ENCODE revela a extensão do quanto essa concepção tem erodido’[7]

Já Graur atesta que o ENCODE não oferece razões suficientes para:

‘Abandonar a concepção prevalente entre os biólogos evolutivos segundo a qual muito do genoma humano é desprovido de função’
[6]

Segundo esse pensamento anticientífico, eles predizem que a maior parte do junk DNA nunca sequer irá adquirir função alguma [9]! Imaginem o que seria da ciência se toda a comunidade levasse essa suposição darwinista a sério… Simplesmente todas as pesquisas seriam abandonadas, afinal, de que adianta pesquisar sucata inútil? Mas, diferente deles, pesquisadores biomédicos têm celebrado o projeto ENCODE, reconhecendo seu benefício potencial para a medicina. Marco Galasso et al. descrevem bem a importância do estudo dos ncRNAs:

‘Nos últimos anos se tornou claro que os ncRNAs estão envolvidos em muitos processos fisiológicos e contribuem na alteração molecular em casos patológicos. Inúmeras classes de ncRNAs, como o siRNA, microRNA, piRNA, snRNA e regiões transcritas ultra-conservadas têm participação em casos de câncer, doenças cardíacas, desordens auto-imunes, metabólicas e neurodegenerativas. NcRNAs possuem papel fundamental na regulação genética […]’ [10]

Em harmonia com o que é defendido pelos proponentes do Design Inteligente, Bhatia e Kleinjan [11] relatam:

‘O CONTROLE PRECISO da expressão de PROGRAMAS genéticos é crucial para o estabelecimento de diversos padrões de atividades gênicas necessárias para o desenvolvimento, modelagem e diferenciação de milhares de tipos de células de um organismo. A importância crucial das regiões não-codificantes é um fato bem estabelecido e depende de diversos grupos de fragmentos chamados de elementos cis-regulatórios […] Maior entendimento sobre o controle da expressão dos genes é de suma importância para a saúde humana, visto que defeitos nessa regulação são uma sabida causa significante de enfermidades.’

(Ênfase minha)

Os diversos danos que a evolução vem causando à ciência são algumas das maiores razões pelas quais nos manifestamos contra essa equivocada “teoria”. Os erros induzidos pelo darwinismo no passado (como é o caso das fraudes de Haeckel e o homem de Piltdown, etc; conceitos nocivos (e.g. órgãos “vestigiais”, eugenia e darwinismo social) e equívocos científicos (junk DNA)) são até perdoáveis; agora é inadmissível que darwinistas prossigam prejudicando a ciência em prol da manutenção dessa síntese falha e arcaica, tudo isso por obstinação e intriga contra o movimento do design inteligente, como apontado por J. Mattick e Dinger [3]:

‘Finalmente, sugerimos que a resistência contra os resultados do ENCODE é motivada também, em certos casos, pelo uso do conceito dúbio do junk DNA como evidência contra o design inteligente’.

E o furor dos darwinistas contra o ENCODE continua, inclusive nas redes sociais [12], mas nada vai barrar a noção revelada pelos dados do projeto, e múltiplos estudos paralelos continuam revelando funções relevantes, dezenas de ncRNAs fundamentais para a estabilidade do genoma e sua regulação, o que tem levado defensores da evolução, incluindo o próprio Adi Livnat, a defenderem a reforma ou substituição da síntese moderna. E, como sempre, o avanço dessas pesquisas (e da ciência em geral) somente reforçará ainda mais a noção do DI em todos os aspectos da biologia.

 

 

Referências

[1] The Human Genome Project Completion: Frequently Asked Questions. <https://www.genome.gov/11006943>

[2] Cory McLean and Gill Bejerano. Dispensability of mammalian DNA. Genome Res. Oct 2, 2008; doi: 10.1101/gr.080184.108

[3] J S Mattick, M E Dinger. The extent of functionality in the human genome. The HUGO Journal 2013, 7:2 doi:10.1186/1877-6566-7-2

[4] The ENCODE Project Consortium (2011) A User’s Guide to the Encyclopedia of DNA Elements (ENCODE). PLoS Biol 9(4): e1001046. doi:10.1371/
journal.pbio.1001046

[5] The ENCODE Project Consortium (2012) An integrated encyclopedia of DNA
elements in the human genome. Nature. 2012 Sep 6;489(7414):57-74 doi:10.1038/nature11247

[6] Dan Graur, Yichen Zheng, Nicholas Price, Ricardo B.R. Azevedo, Rebecca A. Zufall, and Eran Elhaik (2013). On the Immortality of Television Sets: “Function” in the Human Genome According to the Evolution-Free Gospel of ENCODE. Genome Biol. Evol.5 (3):578–590. doi:10.1093/gbe/evt028

[7] W. Ford Doolittle (2012) Is junk DNA bunk? A critique of ENCODE. PNAS April 2, 2013 vol. 110 no. 14 5294-5300 doi: 10.1073/pnas.1221376110

[8] Manolis Kellis et al. Defining functional DNA elements in the human genome. PNAS April 29, 2014 vol. 111 no. 17 6131-6138 doi:10.1073/pnas.1318948111

[9] Garrido-Ramos (2015) Satellite DNA in Plants: More than Just Rubbish. Cytogenet Genome Res 2015;146:153-170 (DOI:10.1159/000437008)

[10] Marco Galasso, Maria Elena Sana and Stefano Volinia (2010) Non-coding RNAs: a key to future personalized molecular therapy? Genome Medicine 2010, 2:12 doi:10.1186/gm133

[11] Shipra Bhatia, Dirk A. Kleinjan. (2014) Disruption of long‑range gene regulation in human genetic disease: a kaleidoscope of general principles, diverse mechanisms and unique phenotypic consequences. Hum Genet DOI 10.1007/s00439-014-1424-6. Springer

[12] Chris Woolston. Furore over genome function. Nature 512, 9 (07 August 2014) doi:10.1038/512009e Published online 06 August 2014

Darwinismo e neodarwinismo: como ambas as sínteses têm sido refutadas pelo avanço da ciência.

By Teoria do Design Inteligente

Apesar de não ser amplamente divulgado ao público, a verdade é que a síntese moderna evolutiva (ou também, teoria sintética da evolução (TSE)), informalmente conhecida como neodarwinismo, está com seus dias contados. Tornou-se difícil ignorar/omitir o quanto as evidências reveladas nas últimas décadas contradizem-na, sendo esta a principal razão pela qual uma ala crescente entre os darwinistas esteja propondo sua “ampliação”, como divulgado anteriormente, ou, no caso de Denis Noble (renomado fisiologista), seu completo descarte e substituição imediata.

Essa síntese surgiu na primeira metade do séc. XX, após um esforço conjunto por parte de Fisher, Haldane, Wright, Dobzhansky, Mayr, Simpson, J. Huxley, Stebbins, entre outros, visando unificar a evolução com as leis da hereditariedade apresentadas primeiramente por Gregor Mendel, que em sua época não recebeu atenção por parte do meio acadêmico, fazendo seus estudos caírem no esquecimento até serem redescobertos no início do século passado pelos botânicos C.E. Correns, E. Tschermak e H.M. de Vries (Randy Moore 2001).

Tais leis se mostraram incompatíveis com o que Darwin postulou. Ele não fazia ideia de que os caracteres eram regidos e transmitidos pelo material genético; acabou cogitando a ideia de que cada organismo seria como um “pequeno Universo”, onde suas partes se reproduziriam de maneira independente (Kenneth M. Weiss and Anne VB. 2014) e as variações ocorridas dentro do seu corpo seriam transmitidas aos gametas (células reprodutivas, como óvulos e espermatozoides) através das hipotéticas “gêmulas” (Darwin 1868, cap. 27; Brian and Deborah C. 2009). Consequentemente, tais modificações seriam herdadas pelos filhos, levando à descendência com modificação, que então passariam pela ação da seleção natural, responsável por eliminar indivíduos com caracteres prejudiciais e manter aqueles com variações que promovessem sua sobrevivência e capacidade de reproduzir.

As leis mendelianas causaram um verdadeiro frisson no meio acadêmico, trazendo fortes questionamentos sobre a legitimidade da teoria darwiniana e seu mecanismo de hereditariedade baseado em “blending inheritance”, isto é, a mesclagem/mistura dos materiais (genéticos) do pai e da mãe herdados pelos filhos (Alan R. Rogers 2015). Por conta disso, Darwin via o conceito de espécies como uma mera demarcação arbitrária imaginária e que os seres vivos estariam todos sob um processo contínuo de diversificação e gradual modificação (M. Pigliucci and G. Muller 2010).

A primeira metade do século foi palco de uma disputa acirrada entre os chamados mutacionistas (encabeçados por H. de Vries, rejeitavam a seleção natural e estipulavam que a evolução ocorreria através de mutações nos genes que confeririam grandes modificações, levando à especialização) e os biometristas, liderados por Karl Pearson (defendiam a seleção natural como causa principal da evolução, agindo por meio do acúmulo de variações individuais ínfimas que não seriam sujeitas às leis da hereditariedade (Ayala and Walter 1997)).

Tal embate só cessou após a divulgação contínua de diversos trabalhos teoréticos de geneticistas como Fisher e principalmente Theodosius Dobzhansky, que veio a publicar o livro “Genetics and the Origin of Species” (Genética e a origem das espécies) em 1937, fator crucial para a ampla aceitação da síntese moderna por parte dos biólogos. Em sua obra, o soviético defendia que mutações eram a fonte da variação hereditária, discutiu o papel da reorganização dos cromossomos, da poliploidia (mutação onde ocorre a cópia de um ou mais cromossomos em um mesmo núcleo. Ocorre com frequência em vegetais mas não em animais, por ser muito nociva aos últimos (J. Frazer 2013; B. Wertheim et al. 2013)), a variação em populações naturais, seu isolamento geográfico, enfim.

Sem surpresa alguma, como Michael Rose e Todd Oakley deixam claro em seu artigo (2007), o sucesso e a aceitação de ambas às sínteses pelo mundo acadêmico se deram por conta da ignorância da época! Como já dito acima, Darwin nada sabia sobre as leis mendelianas, genes, enfim; já sobre a TSE, seus proponentes visualizavam o genoma como uma biblioteca simples ordenada contendo informação hereditária (genes) moldada pela seleção natural (Michael and Todd 2007).

Antes dos anos 50, áreas como a biologia molecular, a bioquímica e a genética ainda engatinhavam, o DNA não tinha sido descoberto ainda, tudo isso contribuiu para a concepção de conceitos tão rudimentares e simplórios acerca dos genomas por parte dos darwinistas. Pior ainda, essa linha de pensamento influenciou fatidicamente o meio acadêmico, causando diversos equívocos, como notado por exemplo, no chamado dogma central da biologia molecular, eternizado por Francis Crick na década de 50 (Crick FH. 1958), onde ele estabeleceu o esquema “gene → RNA mensageiro → proteína ( = traço) ” (Sui Huang 2011). Ou seja, cada gene continha o material genético suficiente para produzir uma proteína, que por sua vez, seria sozinha responsável por um determinado traço (fenótipo) de um ser vivo, tudo de maneira linear e sem a intervenção de qualquer outro tipo de elemento regulatório.

Talvez por isso, até pouco tempo atrás, achava-se que humanos deveriam possuir entre 50 e 100 mil genes (ex.: Cooper GM. 2000). Nada comparado à estimativa feita por F. Vogel, em 1964, que deduziu a existência de 6.7 milhões de genes (Vogel F. 1964). Se cada característica humana fosse regida por uma ou poucas proteínas, como pensavam, seria então compreensível esperar que tivéssemos um número extenso delas, o que explicaria nossa complexidade em relação a organismos mais simples, como nematoides e amebas… Mas, para o espanto dos darwinistas (vide Bin Xue and Lin He 2014), hoje é fato que o nosso genoma não possui mais do que 22-23 mil genes (Mihaela P. and Steven L S. 2010)!

Outro conceito equivocado promovido pela TSE foi o famoso e polêmico “DNA lixo” (Junk DNA em inglês). Esse termo foi usado oficialmente pela 1ª vez em 1972, por Susumu Ohno, em um artigo entitulado: “Um monte de DNA “lixo” em nosso genoma” (“So much “junk” DNA in our genome”), defendendo, como esperado, que a maioria do DNA seria inútil justamente por não codificar proteínas. Essa gafe não é nem a pior parte da história, o pior é observar à inaceitável relutância dos darwinistas atuais em abrir mão desse conceito defasado, como notado na disputa entre eles e os líderes do ambicioso projeto ENCODE.

A era genômica

A partir da segunda metade do século anterior, o mundo científico testemunhou o gradual colapso do modelo neodarwinista. Conforme as pesquisas avançavam e novos métodos eram implementados, a simplória “biblioteca” do genoma ia revelando-se cada vez mais complexa e antagônica ao que foi proposto pelo “dogma” molecular. Na década de 50, Watson e Crick desvendaram a estrutura da dupla hélice do DNA (Watson JD, Crick FH 1953), um dos fatos cruciais para a era genômica.

É interessante notar que Crick, perplexo diante da elegante complexidade e arquitetura do DNA, acabou desprezando a origem dessa molécula por meio da evolução darwiniana, em vez disso, defendendo a hipótese da panspermia dirigida/guiada, junto com ninguém menos do que Leslie Orgel. Seu artigo relata:

Como alternativa a estes mecanismos do século XIX [teoria de Darwin], levamos em consideração a Panspermia Dirigida, teoria que [atesta que] organismos foram deliberadamente transmitidos à Terra por seres inteligentes de outro planeta” (F.H. Crick and L. Orgel 1973)

Nem preciso dizer que tal proposição foi ridicularizada e caiu no esquecimento, já que qualquer ideia que envolva design inteligente da vida é algo inaceitável para o meio acadêmico (mesmo apesar de vários ícones do meio apoiarem essa noção, a exemplo de Fred Hoyle, astrônomo inglês agnóstico, que teve o prêmio Nobel de Física negado justamente por defender que um “superintelecto” ajustou as leis físicas, químicas e biológicas (Hoyle 1982).)

A descoberta e o impacto dos elementos transponíveis

Ainda na década de 50, Barbara McClintock publicou seus estudos com milho onde encontrou elementos genéticos móveis (“genes saltitantes”) (McClintock B. 1950). Isso deu início à descoberta de uma nossa e abundante classe: os elementos transponíveis (transpósons), encontrados em todos os domínios da vida. Interessante notar que tais elementos só passaram a ser amplamente aceitos pela comunidade duas décadas após sua publicação, e Barbara só veio a ganhar seu Nobel em 1983 (W. F. Doolittle et al 2013)… Porque será…

Hoje sabe-se que transpósons compõem cerca de 45% do genoma humano (e pode compor até 90% do genoma de certas plantas), cujas variedades incluem: transpósons DNA e retrotranspósons, sendo que os últimos são divididos em LTRs (long terminal repeat), chamados de retrovírus endógenos em humanos (HERVs) e não-LTRs (que incluem elementos LINE-1, Alu e SVA) (S. Ayarpadikannan and Heui-Soo K. 2014).

Esses elementos possuem papel importante na regulação genética e epigenética dos organismos, programação em células germinativas e células-tronco, resposta contra estresses ambientais, além de contribuir com a diversidade eucariótica e complexidade de inúmeros órgãos, incluindo o cérebro humano (Erwin, Jennifer A. et al 2014; S. Ayarpadikannan and Heui-Soo K. 2014; P. Kumar Singh et al 2014; Makarevitch I et al 2015). Cientistas ainda estão começando a desvendar a relação entre o desregulamento dos elementos transponíveis e o câncer (Bin Xue and Lin He 2014), e sabe-se que esses elementos podem, raramente, causar mutações (nada mais do que 0.3% do total) (S. Ayarpadikannan and Heui-Soo K. 2014).

Finalmente, é sabido que esses elementos são superabundantes em procariontes (seres unicelulares), assim como a troca constante de genes entre as cepas através da transferência horizontal de genes, responsável pela proliferação da resistência contra antibióticos, pela adaptação, enfim. Porém, mais do que isso, essas transferências são responsáveis pelo verdadeiro mosaico genético indistinguível entre as bactérias, fato que derruba o conceito de “árvore da vida” vislumbrado por Darwin (fixado à ideia de que todos os seres vivos se originaram de um mesmo ancestral, se ramificando posteriormente em vários “galhos”, que seriam as diversas classes taxonômicas da vida.) como demonstrado por análises filogenéticas, levando certos darwinistas a conceberem, em vez disso, uma “rede” ou “floresta” da vida (E.V. Koonin et al 2012).

Bem, encerramos a 1ª parte por aqui; na parte 2 daremos continuidade à era genômica, discutiremos sobre a revolução pós-genômica causada pelo projeto ENCODE e pela multidão de dados obtidos através dos recentes métodos de larga escala (high-throughput) e como isso tudo tem abalado as fundações da TSE e demonstrado a extraordinária complexidade da vida.

Por Wallace Barbosa

Revisão: Marcos Ariel e Eskelsen

Referências

Alan R. Rogers (2015) Rate of Adaptive Evolution under Blending Inheritance. ArXiv: 1504.00374v1 [q-bio.PE] 1 Apr 2015

Ayala F. J. and Walter M. Fitch (1997) Genetics and the origin of species: An introduction.

Bin Xue and Lin He (2014) An expanding universe of the non-coding genome in cancer biology. Carcinogenesis (2014) 35 (6): 1209-1216. doi: 10.1093/carcin/bgu099

Brian and Deborah Charlesworth (2009) Darwin and Genetics. Genetics 183, 757–766.

B.Wertheim, L.W. Beukeboom, L. van de Zande. (2013). Cytogenet Genome Res 2013;140:256–269 DOI: 10.1159/0003519

Cooper GM.Sunderland (2000) The Cell: A Molecular Approach. 2nd edition. (MA): Sinauer Associates.

Crick FH. (1958) On protein synthesis.Symp Soc Exp Biol 12: 138–63.

Crick FH., Orgel. L. (1973). Directed Panspermia. Icarus Volume 19, Issue 3, July 1973, Pages 341-346 Elsevier

Darwin, C. R., (1868) Variation of Animals and Plants Under Domestication. John Murray, London.

Erwin, Jennifer A., Maria C. Marchetto, Fred H. Gage (2014) Mobile DNA elements in the generation of diversity and complexity in the brain. Nature Reviews Neuroscience 15, 497–506 (2014) doi:10.1038/nrn3730

E.V. Koonin, Y.I. Wolf, and P. Puigbò (2012) The Phylogenetic Forest and the Quest for the Elusive Tree of Life. Cold Spring Harb Symp Quant Biol. 2009; 74: 205–213. Published online 2009 Aug 17. doi: 10.1101/sqb.2009.74.006

Kenneth M. Weiss and Anne V. Buchanan (2014) Is Life Law-Like? Genetics August 1, 2011 vol. 188 no. 4 761-771 doi: 10.1534/genetics.111.131318
J. Frazer (2013) For Plants, Polyploidy Is Not a Four-Letter Word. Blog Scientific American. May 19, 2013
Hoyle, F. (1982) The Universe: Past and Present Reflections. Annual Review of Astronomy and Astrophysics: 20:16.
Makarevitch I, Waters AJ, West PT, Stitzer M, Hirsch CN, Ross-Ibarra J, et al. (2015) Transposable Elements Contribute to Activation of Maize Genes in Response to Abiotic Stress. PLoS Genet 11(1): e1004915. doi:10.1371/journal.pgen.1004915

McClintock B. (1950) The origin and behavior of mutable loci in maize. Proc Natl Acad Sci USA 1950, 36:344-355.
M. Pigliucci and G. Muller (2010) Evolution—the Extended Synthesis. The MIT Press, London, England.

Michael R Rose and Todd H Oakley (2007) The new biology: beyond the Modern Synthesis. Biology Direct 2007, 2:30 doi:10.1186/1745-6150-2-30

Mihaela Pertea and Steven L Salzberg (2010) Between a chicken and a grape: estimating the number of human genes. Genome Biol. 2010; 11(5): 206. doi: 10.1186/gb-2010-11-5-206
P. Kumar Singh, G. Bourque, Nancy L Craig, Josh T Dubnau, Cédric Feschotte, Diane A Flasch, Kevin L Gunderson, Harmit Singh Malik, John V Moran, Joseph E Peters, R Keith Slotkin and Henry L Levin (2014) Mobile DNA 2014, 5:26 doi:10.1186/1759-8753-5-26

Randy Moore (2001) The “Rediscovery” of Mendel’s Work. Bioscene, Volume 27(2) May 2001.

S. Ayarpadikannan and Heui-Soo Kim (2014) The Impact of Transposable Elements in Genome Evolution and Genetic Instability and Their Implications in Various Diseases. Genomics Inform. 2014 Sep; 12(3): 98–104. Published online 2014 Sep 30. doi: 10.5808/GI.2014.12.3.98

Sui Huang (2011) The molecular and mathematical basis of Waddington’s epigenetic landscape: A framework for post-Darwinian biology? Bioessays DOI: 10.1002/bies.201100031

Vogel F. (1964) A preliminary estimate of the number of human genes. Nature. 1964 Feb 22; 201():847.

Watson JD, Crick FH (1953) Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid. Nature 1953, 171:737-738.

W. F. Doolittle, Peter Fraser, Mark B Gerstein, Brenton R Graveley, Steven Henikoff, Curtis Huttenhower, Alicia Oshlack, Chris P Ponting, John L Rinn, Michael C Schatz, Jernej Ule, Detlef Weige and George M Weinstock (2013) Sixty years of genome biology. Genome Biology 2013, 14:113 doi:10.1186/gb-2013-14-4-113

10 Principais Problemas Científicos com a Evolução Química e Biológica – Parte 2/10

Problema 2: Processos Químicos Não Guiados Não Podem Explicar a Origem do Código Genético

 

 

Casey Luskin 5 de janeiro de 2015 12:00 AM

 

 

Nota do Editor: Esta é a parte 2 de uma série de 10 baseado no capítulo de Casey Luskinr, “The Top Ten Scientific Problems with Biological and Chemical Evolution,” [Os dez principais problemas científicos com a evolução biológica e química] no volume More than Myth [Mais do que mito] editado por Paul Brown e Robert Stackpole (Chartwell Press, 2014). Quando a série estiver completa, o capítulo inteiro será postado online. A primeira parte pode ser encontrada aqui: Problema 1. Quando a série estiver completa, o capítulo inteiro será postado online.

Vamos presumir que o mar primordial cheio de blocos construtores de vida que existiam na Terra primeva, e de alguma maneira ele formou proteínas e outras moléculas orgânicas complexas. Teóricos creem que o próximo passo na origem da vida é que – completamente ao acaso – mais e mais moléculas complexas formaram até que algumas começaram a se autorreplicar. A partir disso, eles creem que a seleção natural darwinista tomou controle, favorecendo aquelas moléculas que eram mais capazes de fazer cópias de si mesmas. Eventualmente, eles presumem, era inevitável que essas moléculas evoluiriam maquinaria complexa – como aquela usada no código genético atual – para sobreviver e reproduzir.
Os teóricos modernos da origem da vida explicaram como aconteceu esta ponte crucial a partir de elementos químicos para sistemas moleculares autorreplicantes? A hipótese mais proeminente para a origem da primeira vida é chamada de “Mundo RNA.” Em células vivas, a informação genética é transportada pelo DNA, e a maioria das funções celulares é feita pelas proteínas. Contudo, o RNA é capaz de tanto transportar a informação genética e catalisar algumas reações bioquímicas. Como resultado, alguns teóricos postulam que a primeira vida pode ter usado somente RNA para realizar todas essas funções.
Mas, há muitos problemas com esta hipótese.
Em primeiro lugar, as primeiras moléculas de RNA teriam que surgir por processos químicos não biológicos não guiados. Mas sabe-se que o RNA não é capaz de se agregar sem a ajuda de um químico de laboratório proficiente guiando inteligentemente o processo. Robert Shapiro, químico da Universidade New York, criticou os esforços daqueles cientistas que tentaram fazer RNA no laboratório, dizendo: “O defeito está na lógica – que este controle experimental pelos pesquisadores em um laboratório moderno estivesse disponível na Terra primitiva.”15

Em segundo lugar, embora tenha sido demonstrado que o RNA realiza muitos papéis na célula, não existe nenhuma evidência que pudesse realizar todas as atuais funções celular necessárias feitas pelas proteínas.16

Em terceiro lugar, a hipótese do mundo RNA não explica a origem da informação genética.
Os defensores do mundo RNA sugerem que, se a primeira vida autorreplicante fosse baseada em RNA, teria sido necessário uma molécula entre 200 e 300 nucleotídeos de comprimento.17 Contudo, não existem leis químicas ou físicas conhecidas que ditar a ordem daqueles nucleotídeos.18 Para explicar o ordenamento dos nucleotídeos na primeira molécula de RNA autorreplicante, os materialistas precisam confiar no puro acaso. Mas as probabilidades de se especificar, por exemplo, 250 nucleotídeos em uma molécula de RNA, ao acaso é aproximadamente 1 em 10150 – abaixo do limite de probabilidade universal, ou eventos que são remotamente possíveis de ocorrer dentro da história do universo.19 Shapiro coloca o problema dessa maneira:

A aparição súbita de uma grande molécula autocopiável como o RNA era extremamente improvável. … [A probabilidade] é tão extremamente pequena que a sua ocorrência, mesmo que seja uma só vez em qualquer lugar no universo visível, isso contaria como uma peça de boa sorte excepcional.20

Em quarto lugar – e mais fundamentalmente – a hipótese do mundo RNA não explica a origem do código genético. A fim de evoluir na vida baseada em DNA/proteína que existe hoje, o mundo RNA precisaria evoluir a capacidade de converter informação genética em proteínas.
Todavia, esse processo de transcrição e tradução exige uma grande série de proteínas e máquinas moleculares – que em si mesmas são codificadas por informação genética. Isso cria um problema ovo-galinha, onde as enzimas essenciais e máquinas moleculares são necessárias para realizar a própria tarefa que as constrói.
A Galinha e o DVD

Para avaliarmos este problema, consideremos a origem do primeiro DVD e leitor de DVD player. Os DVDs são ricos em informação, mas sem a maquinaria de um leitor de DVD para ler o disco, processar sua informação, e convertê-la em uma figura e som, o disco seria inútil. Mas, se as instruções para construir o primeiro leitor de DVD somente fossem encontradas codificadas em um DVD? Você nunca poderia tocar o DVD para aprender como construir um leitor de DVD. Então, como surgiram o primeiro disco e leitor de DVD? A resposta é óbvia: um processo dirigido para um objetivo – design inteligente – é necessário para produzir tanto o leitor de DVD e o disco ao mesmo tempo.
Em células vivas, as moléculas que transportam informação (ex.: DNA ou RNA) são como o DVD, e a maquinaria celular que lê aquela informação e a converte em proteínas são como o leitor de DVD. Assim como a analogia do DVD, a informação genética nunca pode ser convertida em proteínas se a maquinaria adequada. Ainda assim, nas células, as máquinas necessárias para o processamento da informação genética no RNA ou DNA são codificadas por aquelas mesmas moléculas genéticas – elas realizam e dirigem a própria tarefa que as constrói.
Este sistema não pode existir a menos que, tanto a informação genética e a maquinaria de transcrição/tradução estejam presentes ao mesmo tempo e que ao menos as duas falem a mesma língua. O biólogo Frank Salisbury explicou este problema em um artigo no American Biology Teacher, não muito tempo depois que os funcionamentos do código genético foram descobertos pela primeira vez:
É legal falar sobre as moléculas replicadoras de DNA surgindo em um mar de sopa, mas nas células modernas esta replicação exige a presença de enzimas adequadas. … O elo entre o DNA e a enzima é um elo altamente complexo, envolvendo o RNA e uma enzima para sua síntese em um DNA molde; ribossomos; enzimas para ativar os aminoácidos; e as moléculas transfer-RNA. … Como, na ausência da enzima final, poderia a seleção agir sobre o DNA e todos os mecanismos para replicá-lo? É como se tudo deva acontecer de uma vez: o sistema inteiro deva passar a existir como uma unidade, ou ele é imprestável. Podem até existir meios de como sair desse dilema, mas eu não os vejo no momento.21
Apesar de décadas de trabalho, os teóricos da origem da vida ainda estão perdidos quanto a explicar como que esse sistema surgiu. Em 2007, George Whitesides, químico da Universidade Harvard, ganhou a Medalha Priestley, a mais alta premiação da American Chemical Society [Sociedade Americana de Química]. Durante seu discurso recebendo o prêmio, ele ofereceu esta seguinte análise forte, republicada no respeitável journal, Chemical and Engineering News:

A Origem da Vida. Este problema é um dos maiores problemas na ciência. Ele começa colocando a vida, e nós, no universo. A maioria dos químicos creem, como eu creio, que a vida surgiu espontaneamente de misturas de moléculas na Terra prebiótica. Como? Eu não faço a menor ideia.22

Semelhantemente, o artigo no Cell Biology International acima mencionado concluiu: “Novas abordagens para investigar a origem do código genético são necessárias. As restrições da ciência histórica são tais que a origem da vida talvez nunca seja entendida.”23 Isto é, elas talvez nunca sejam entendidas a menos que os cientistas queiram considerar explicações científicas dirigidas a um objetivo tipo design inteligente.

Mais existe um problema muito mais profundo com as teorias da evolução química, bem como com a evolução biológica. Isso diz respeito não somente na capacidade para processar informação genética através de um código genético, mas a origem daquela informação.
Referências:
[16.] Vide Stephen C. Meyer, Signature in the Cell: DNA and the Evidence for Intelligent Design, p. 304 (New York: HarperOne, 2009).

[17.] Jack W. Szostak, David P. Bartel, e P. Luigi Luisi, “Synthesizing Life,” Nature, 409: 387-390 (18 de janeiro de 2001).

[18.] Michael Polanyi, “Life’s Irreducible Structure,” Science, 160 (3834): 1308-1312 (21 de junho de 1968).

[19.] Vide William A. Dembski, The Design Inference: Eliminating Chance through Small Probabilities (Cambridge University Press, 1998).

[20.] Robert Shapiro, “A Simpler Origin for Life,” Scientific American, p. 46-53 (Junho de 2007).

[21.] Frank B. Salisbury, “Doubts about the Modern Synthetic Theory of Evolution,” American Biology Teacher, 33: 335-338 (Setembro de 1971).

[22.] George M. Whitesides, “Revolutions In Chemistry: Priestley Medalist George M. Whitesides’ Address,” Chemical and Engineering News, 85: 12-17 (26 de março de 2007).

[23.] J.T. Trevors e D.L. Abel, “Chance and necessity do not explain the origin of life,” Cell Biology International, 28: 729-739 (2004).

_____________________________________________________________________

FONTE DESTE ARTIGO

Será que as bactérias evoluem resistência aos antibióticos?

Os evolucionistas costumam citar a resistência das bactérias aos antibióticos como exemplo prático de evolução, afinal em ciência você não pode ficar apenas com o imaginário, com esperanças. Deve existir algum dado, evento concreto, observável que apoie uma teoria.

Eu costumo comentar no darwinismo.wordpres [Blog do Mats], e eu me foco principalmente no argumento de meio, ou seja, eu não me foco, no argumento que aborda se a evolução é verdadeira ou não, se é possível, provável, hipotética ou não, eu me foco em; se a evolução é verdadeira, então como essa evolução ocorreu? Por acaso, acidentalmente, aleatoriamente, ou mesmo uma evolução pode acontecer com algum objetivo pré-programado?

Eu já citei, por exemplo, aqui, um exemplo de evolução inteligente.

E esse artigo publicado no blog do Mats é bem interessante. Será mesmo que a resistência a antibióticos é uma evolução, e eu digo mais, seria uma evolução cega?

Alem do artigo que vou republicar, você também pode conferir mais sobre a resistência dos micro organismos aqui (Em inglês)

Segue o texto:

É frequente as aulas de Biologia fazerem a alegação de que “a evolução já foi observada” em certo micróbios-germes uma vez que, com o passar do tempo, eles passam a resistir a certos antibióticos. Por exemplo, actualment a penicilina é globalmente menos eficaz do que o era no passado. Como consequência disso, foi necessário desenvolver drogas mais fortes e mais potentes, cada uma delas com benefícios iniciais, mas que, com o passar do tempo, são substituídas por drogas ainda mais potentes. Hoje em dia, os “super-germes” desafiam o tratamento.

Pode-se perguntar: será que estes germes unicelulares “evoluiram”? E será que isto prova que organismos unicelulares evoluíram para plantas e pessoas?

Como é normal, temos que distinguir a variação, a adaptação e a recombinação de traços já existentes (a erradamente chamada de micro-“evolução”), do aparecimento de novos genes, novas partes corporais e novos traços (isto é, macro-evolução, que é a evolução que todos temos em mente). Uma vez que cada  espécie de germes continuou a ser da mesma espécie e nada de novo foi produzido, então a resposta é “não!”, os germes não evoluíram e a resistência aos antibióticos não confirma a tese de que organismos unicelulares evoluíram para plantas e pessoas.

Eis aqui a forma como as coisas funcionam: numa dada população de bactérias, muitos genes encontram-se presentes e eles expressam-se duma variedade de formas e maneiras. Num ambiente natural, os genes (e os traços) misturam-se livremente mas quando as bactérias deparam-se com antibióticos, a maior parte delas morre. Algumas, no entanto, e através de alguma recombinação genética fortuita, têm resistência ao antibiótico.

Aquelas bactérias com esta resistência ao antibiótico passam a ser, consequentemente, as únicas que sobrevivem e as únicas que se reproduzem, fazendo com que todos os seus descendentes tenham dentro de si a mesma resistência antibiótica.. Com o passar do tempo, virtuamente todas as bactérias passam a ter a mesma resistência, o que faz com que a população deixe de produzir bactérias sensíveis ao antibiótico (isto é, aquelas que ainda podem ser atacadas pelo antibiótico).

Nenhuma informação genética nova foi criada.

Evidentemente, quando a bactéria se encontra sob stress, alguns micróbios entram em modo de mutação, produzindo rapidamente uma variedade de estirpes, aumentando desde logo as probabilidades de alguma dessas estirpes sobreviver ao stress. Isto gerou algumas áreas de especulação para os criacionistas, mas isto ainda mitiga contra a teoria da evolução. Existe um tremendo alcance de potencial genético já presente na célula, mas a bactéria Escherichia coli antes do stress e da mutação continua a ser uma bactéia Escherichia coli depois da mutação; uma variação menor ocorreu, mas não houve qualquer tipo de evolução.

Para além disso, já ficou provado que a resistência a muitos dos antibióticos modernos já se encontrava presente nas bactérias antes da sua descoberta. No ano de 1845, marinheiros duma infeliz expedição ao Ártico foram enterrados no pergelissolo [inglês: “permafrost”] e permaneceram profundamente congelados até que os seus corpos foram exumados em 1986. A preservação foi tão completa que seis estirpes de bactérias do século 19 encontradas adormecidas dentro do conteúdo dos intestinos dos marinheiros foram ressuscitadas.

Quando estas bactérias do século 19 foram testadas, apurou-se que elas já tinham resistência a muitos antibióticos modernos, incluindo a penincilina (embora alguns destes mesmos antibióticos só tenham sido criados/descobertos bem depois do século 19). Isto demonstra que essa resistência já se encontrava na população das bactérias, e tudo o que essa resistência precisava para ser geneticamente expressa era algum tipo de stress exterior (por exemplo, exposição a um tipo de antibiótico).

Uma vez que a resistência já se encontrava na população de bactérias antes dela ser exposta aos antibióticos, isto demonstra também que a resistência não foi “evolução em acção” mas sim uma recombinção de informação genética que já existia ANTES da bactéria se deparar com esse antibiótico. Estes traços obviamente já estavam presentes antes da descoberta dos antibióticos, e desde logo, a evolução nunca pode ser creditada por um fenómeno que tem uma explicação não-evolutiva (Medical Tribune, December 29, 1988, p. 1, 23).

Resumindo, as mutações, as adaptações, a variação, a diversificação, as mudanças populacionais e as transferências genéticas laterais ocorrem, mas nenhum destes fenómenos científicos é contra o criacionismo e nenhum deles serve de evidência para a tese de que répteis evoluíram para pássaros e que animais terrestres evoluíram para baleias. Qualquer evolucionista que use a resistência aos antibióticos como evidência em favor da teoria da evolução está a mentir, ou é um desconhecedor dos factos (ou ambas).

Modificado a partir do original – http://bit.ly/1nuUkuX

 

Codificação, Codificação de canal, Bit e Decodificação.

Hoje a biologia, mais precisamente a genética está intrínseca a Teoria da Informação, Tecnologia da Informação, e inevitavelmente vem a minha mente a Teoria do Design Inteligente. E vem a minha mente o que eu havia postado sobre um artigo do Science Daily, onde o autor de um trabalho afirma que todo ser vivo é um computador biológico. E isso é racional.Segue agora algo que nós conhecemos, temos experiência e encontramos nos computadores biológicos.Alguns dos links do wikki estão sem nenhum artigo,outros estão com os artigos referentes, clique para saber mais detalhes sobre informações,armazenamento e etc.

 

Codificação

Origem: Wikipédia, a enciclopédia livre.

Em processamento digital de sinaisCodificação significa a modificação de características de um sinal para torná-lo mais apropriado para uma aplicação específica, como por exemplo transmissão ou armazenamento de dados.

Neste contexto, existem três tipos de codificação:

 

Técnicas de Codificação

No que diz respeito às principais técnicas de codificação, podemos dividí-las em 3:

  • Non Return to Zero (NRZ): Existem dois níveis de tensão ou corrente, para representar os dois símbolos digitais (0 e 1). É a forma mais simples de codificação e consiste em associar um nível de tensão a cada bit: um bit 1 será codificado sob a forma de uma tensão elevada e um bit 0 sob a forma de uma tensão baixa ou nula.

NRZcode.png

  • Return to Zero (RZ): Na codificação RZ o nível de tensão ou corrente retorna sempre ao nível zero após uma transição provocada pelos dados a transmitir (a meio da transmissão do bit). Geralmente um bit 1 é representado por um nível elevado, mas a meio da transmissão do bit o nível retorna a zero.

RZcode.png

  • Diferenciais: Neste tipo de codificação, os 0 e 1 são representados através de uma alteração do estado da tensão ou corrente. Assim, o valor 1 é representado pela passagem de uma tensão ou corrente baixa/nula para uma tensão ou corrente elevada. O valor 0 é o contrário, ou seja, passa-se de uma tensão ou corrente elevada para outra baixa/nula.

 

Ver também

Codificação de canal

Em matemáticaciência da computaçãotelecomunicaçõesengenharia elétricaestatística e teoria da informação, chama-seCodificação de Canal, ou Detecção e Correção de Erros à codificação de sinais de informação com o objetivo de diminuir a taxa de erro de símbolo e/ou de bit durante a transmissão dos mesmos através de um canal de comunicação. Assim, trata-se do estudo dos códigos detectores e corretores de erros.

Existem basicamente dois tipos de códigos corretores/detectores de erros:

História

O estudo de códigos corretores de erros iniciou-se na década de 19401 , específicamente no ano de 19482 em um trabalho publicado por Claude E. Shannon.

Aplicações

Pode-se comprovar a presença dos códigos corretores de erro em diversas situações do cotidiano, como por exemplo quando se assiste a um programa de televisão, se ouve música a partir de um CD, se faz um telefonema, se assiste um filme gravado em DVD, ou se navega pela internet2 .

Notas

  1. Ir para cima↑ Conforme Dutra (2006)
  2. ↑ Ir para:a b Conforme Câmara & Souza

Referências

Ver também

 

Bit

Nota: Não confundir com Byte

 

Bit (simplificação para dígito binário, “BInary digiT” em inglês) é a menor unidade de informação que pode ser armazenada ou transmitida. Usada na Computação e na Teoria da Informação. Um bit pode assumir somente 2 valores, por exemplo: 0 ou 1, verdadeiro ou falso.

Embora os computadores tenham instruções (ou comandos) que possam testar e manipular bits, geralmente são idealizados para armazenar instruções em múltiplos de bits, chamados bytes. No princípio, byte tinha tamanho variável mas atualmente tem oito bits. Bytes de oito bits também são chamados de octetos. Existem também termos para referir-se a múltiplos de bits usando padrões prefixados, como quilobit (kb), megabit (Mb), gigabit (Gb) e Terabit (Tb). De notar que a notação para bit utiliza um “b” minúsculo, em oposição à notação para byte que utiliza um “B” maiúsculo (kBMBGBTB).

Fisicamente, o valor de um bit é, de uma maneira geral, armazenado como uma carga elétrica acima ou abaixo de um nível padrão em um único capacitor dentro de um dispositivo de memória. Mas, bits podem ser representados fisicamente por vários meios. Os meios e técnicas comumente usados são: Pela eletricidade, como já citado, por via da luz (em fibras ópticas, ou em leitores e gravadores dediscos ópticos por exemplo), por via de ondas eletromagnéticas (rede wireless), ou também, por via de polarização magnética (discos rígidos).

Telecomunicações ou volume de tráfego em redes de computadores são geralmente descritos em termos de bits por segundo. Por exemplo, “um modem de 56 kb/s é capaz de transferir dados a 56 quilobits em um único segundo” (o que equivale a 6,8 quilobytes (kibibyte), 6,8 kB, com B maiúsculo para mostrar que estamos nos referindo a bytes e não a bits. Ethernet transfere dados a velocidades que variam de 10 megabits por segundo a 1 gigabit por segundo (de 1,19 a 119 megabytes(mebibyte) por segundo). NoSistema Internacional (SI), os prefixos quilo-, mega-, etc às vezes têm o significado modificado quando aplicados a bits e bytes (até bits toleram calculos decimais pois é pontual ou é 0 ou é 1, já bytes não pois se fala dos dados agrupados): para explicação, vejaPrefixos binários.

Saiba Mais

Bit também é conceituado como a menor unidade de “informação” armazenável. Porém o bit (0 ou 1), apesar de ser um dado (fato não processado) não pode ser confundido como a menor “unidade de medida da informação“, pois representa apenas valores que, somente em conjunto (octeto ou byte), formarão a informação em si, que é o produto do processamento desse conjunto de dados.

Cabe salientar que o bit é usado como unidade de medida sim, mas em transmissão de dados de forma serial.

Em comunicação de dados apenas a definição métrica de um kilobyte (1.000 bytes por kilobyte) está correto. A definição binária de um kilobyte (1.024 bytes por kilobyte) é usado em áreas como armazenamento de dados (disco rígido, memória), mas não para expressar a largura de banda e taxa de transferência.

Ver também

 

Decodificação

Decodificação é a ação de transcrição, interpretação ou tradução de um código, também conhecida como criptografia, (dado ou conjunto de dados em um formato desconhecido) de modo que possa ser entendido pelo decodificador ou seu utilizador (para um formato conhecido, ou legível).

A decodificação pode ser utilizada em espionagem, para decifrar informações sigilosas, ou para lidar mais facilmente com determinados meios de comunicação, como o telégrafo e o código Morse

Quando apertamos uma tecla numérica de um computador, por exemplo, um circuito é capaz de decodificá-la para que ele possa entender e realizar a operação. Para isso, é necessário que o dispositivo responsável por decodificar conheça o código respectivo.

Pode a teoria da evolução gerar uma engrenagem mecânica?

Aqui segue mais uma das evidências que falsificam o evolucionismo neo darwinista; claro que a grande maioria dos evolucionistas pra não dizer todos, se empenharão para sustentar que maquinas biológicas replicantes, surgem por processos não direcionados. Contrariando a ciência… Se eles ao menos nos fornecessem  um caso positivo e falseável …

 

Posted on 25/09/2013 por   [Darwinismo.wordpress]

Issus

Com duas pernas diminutas travadas em uma posição de salto, o pequeno insecto tensiona seu corpo como um arqueiro segurando um arco. No topo de suas pernas, há um minúsculo par de engrenagens – com a aparência de finos dentes de tubarão e como um zíper. E então, mais rápido do que você possa piscar, pensar ou ver a olho nu, a coisa desapareceu.

Em 2 milissegundos, o minúsculo inseto se projeta, acelerando a quase 400 g’s – uma taxa de mais de 20 vezes o que um corpo humano pode suportar. Na velocidade máxima, seu salto atinge 3,57632 m/s – uma façanha, considerando que seu corpo tem menos de um décimo de um centímetro de comprimento.

Esta pequena maravilha é uma ninfa de Issus coleoptratus, uma espécie de insetofulgoromorfo e um dos aceleradores mais rápidos do reino animal. Como uma dupla de pesquisadores relatou hoje no Jornal da Ciência do Reino Unido hoje, o Issus também é o primeiro ser vivo já descoberto a exibir uma engrenagem de funcionamento.

Issus2

[…] As próprias engrenagens são uma raridade. Com engrenagem dentada em forma de ondas, eles não se parecem com o que você gostaria de encontrar em seu carro ou em um relógio de luxo (o estilo com o qual você provavelmente está familiarizado é chamado de engrenagem evolvente , e foi projetada pelo matemático suíço Leonhard Euler, no século 18.)

Não poderia haver duas razões para isso. Através de uma excentricidade matemática, existe um número ilimitado de maneiras de projectar engrenagens. Então, ou a natureza evoluiu uma solução ao acaso ou, como suspeita Gregory Sutton, coautor do artigo e pesquisador de insectos na Universidade de Bristol, a forma da engrenagem do Issus é particularmente apta para o trabalho que faz. Ela é construída para‘uma alta precisão e velocidade em uma direcção’, diz. ‘É um protótipo de um novo tipo de arte.’

Issus

Clique

Outra coisa estranha sobre esta descoberta é que, embora existam muitos insectos pulando como os issus, incluindo os que são ainda mais rápidos e melhor saltadores – o Issus é, aparentemente, o único com engrenagens naturais. A maioria dos outros insectos sincronizam a sacudida rápida de suas pernas pulando por fricção, utilizando superfícies irregulares ou aderentes para pressionar o topo de suas pernas juntas, diz Steve Vogel, especialista em biomecânica da Duke University, que não esteve envolvido no estudo.

Como engrenagens, isto assegura o movimento de pernas no mesmo ritmo, mas sem necessitar um mecanismo de entrelaçamento complicado.“Há um monte de pastilhas de fricção ao redor, e fazem praticamente a mesma coisa”, ele diz. ‘”Então eu me pergunto qual a capacidade extra que essas engrenagens conferem. Elas são bastante especializadas, e existem muitos outros insetos saltadores que não as têm, então deve haver algum tipo de vantagem.”

Ainda mais estranho é que o Issus não mantém as engrenagens em todo seu ciclo de vida. À medida que o insceto cresce, muda meia dúzia de vezes, atualizando seu exoesqueleto (incluindo as engrenagens) para versões maiores. Mas depois de sua última forma na idade adulta — puf, desapareceram as engrenagens. O adulto sincroniza suas pernas por fricção, como todos os outros fulgoromorfos. “Estou chocado”, diz Sutton. “Temos uma hipótese quanto a por que este é o caso, mas não podemos dizer com certeza.”

Issus 4

* * * * * * *

Não bastavam todos os problemas científicos que o ateísmo e a teoria da evolução têm, agora ficamos a saber que (pelo menos) um insecto tem dentro de si um dispositivo mecânico análogo aos que são construídos pelos seres humanos.

Olhem bem para a imagem de cima. Se vocês não soubessem que a mesma é de um insecto, teriam alguma dificuldade em concluir que esse sistema é o resultado de design inteligente? Reparem bem na sua forma e vejam como as “rodas dentadas” se fecham perfeitamente uma na outra, de modo a poder dar um impulso mecânico óptimo ao insecto.

É por sistemas como estes que nós podemos ver claramente que o Apóstolo Paulo tinha razão quando dizia (inspirado pelo Espírito Santo):

Porque as Suas coisas invisíveis, desde a criação do mundo, tanto o Seu Eterno Poder, como a Sua Divindade, se entendem, e claramente se vêem pelas coisas que estão criadas, para que eles fiquem inescusáveis;
Romanos 1:20
As evidências para o Poder, Glória e Majestade de Deus encontram-se bem visíveis para quem as quer encontrar, e como tal se alguém rejeita a existência de Deus, ele ou ela não o faz por motivos científicos mas por motivos puramente ideológicos.

The Spliceosome: A Dynamic Ribonucleoprotein Machine.

The spliceosome has been described as one of “the most complex macromolecular machines known,” “composed of as many as 300 distinct proteins and five RNAs” ( Nilsen, 2003 ).

Spliceosome.jpg

Introns (which, unlike exons, do not code for proteins) can be of considerable length in higher eukaryotes, even spanning many thousands of bases and sometimes comprising some 90% of the precursor mRNA. In contrast, lower eukaryotes such as yeast possess fewer and shorter introns, which are typically fewer than 300 bases in length. Since introns are the non-coding segments of genes, they are removed from the mRNA before it is translated into a protein. This is not to say, of course, that introns are without important function in the cell ( as I discuss here ).

Comprising the spliceosome, shown at right (excerpted from Frankenstein et al ., 2012 ) [1] are several small nuclear ribonucleoproteins (snRNPs) — called U1, U2, U4, U5 and U6 — each of which contains an RNA known as an snRNA (typically 100-300 nucleotides in length) — and many other proteins that each contribute to the process of splicing by recognizing sequences in the mRNA or promoting rearrangements in spliceosome conformation. The spliceosome catalyzes a reaction that results in intron removal and the “gluing” together of the protein-coding exons.

RNA Splicing RNA splicing.png

The first stage in RNA splicing is recognition by the spliceosome of splice sites between introns and exons. Key to this process are short sequence motifs. These include the 5′ and 3′ splice sites (typically a GU and AG sequence respectively); the branch point sequence (which contains a conserved adenosine important to intron removal); and the polypyrimidine tract (which is thought to recruit factors to the branch point sequence and 3′ splice site). These sequence motifs are represented in the illustration below:

intron splice sites.jpg

The U1 snRNP recognizes and binds to the 5′ splice site. The branch point sequence is identified and bound by the branch-point-binding protein (BBP). The 3′ splice site and polypyrimidine tract are recognized and bound by two specific components of a protein complex called U2 auxiliary factor (U2AF): U2AF35 and U2AF65 respectively.

Once these initial components have bound to their respective targets, the rest of the spliceosome assembles around them. Some of the previously bound components are displaced at this stage: For instance, the BBP is displaced by the U2 snRNP, and the U2AF complex is displaced by a complex of U4-U5-U6 snRNPs. The U1 and U4 snRNPs are also released. The first transesterification reaction then takes place, and a cut is made at the 5′ splice site and the 5′ end of the intron is subsequently connected to the conserved adenine found in the branch point sequence, forming the so-called “lariat” structure. This is followed by the second transesterification reaction which results in the splicing together of the two flanking exons. See this page for a helpful animation of the splicing process.

Other Important Protein Factors
Spliceosome assembly.jpg
Many other proteins play crucial roles in the RNA splicing process. One essential component is PRP8, a large protein that is located near the catalytic core of the spliceosome and that is involved in a number of critical molecular rearrangements that take place at the active site (for a review, see Grainger and Beggs, 2005 ). What is interesting is that this protein, though absolutely crucial to the RNA splicing machinery, bears no obvious homology to other known proteins.

The SR proteins, characterized by their serine/arginine dipeptide repeats and which are also essential, bind to the pre-mRNA and recruit other spliceosome components to the splice sites ( Lin and Fu, 2007 ). SR proteins can be modified depending on the level of phosphorylation at their serine residues, and modulation of this phosphorylation helps to regulate their activity, and thus coordinate the splicing process ( Saitoh et al ., 2012 ; Plocinik et al ., 2011 ;Zhong et al ., 2009 ; Misteli et al ., 1998 ). The illustration above ( from here ) shows the binding of SR proteins to splicing enhancer sites, which promotes the binding of U1 snRNP to the 5′ splice site, and U2AF protein to the polypyrimidine tract and 3′ splice site.

There are also ATPases that promote the structural rearrangements of snRNAs and release by the spliceosome of mRNA and the intron lariat. It is even thought that ATP-dependent RNA helicases play a significant role in “proofreading” of the chosen splice site, thus preventing the potentially catastrophic consequences of incorrect splicing ( Yang et al ., 2013 ; Semlow and Staley, 2012 ; Egecioglu and Chanfreau, 2011 ).

The Exon Junction Complex

The exon junction complex (EJC) is a protein complex comprised of several protein components (RNPS1, Y14, SRm160, Aly/REF and Magoh) left behind near splice junctions by the splicing process ( Hir and Andersen, 2008 ). Their function is to mark the transcript as processed, and thus ready for export from the nucleus to the cytoplasm, and translation at the ribosome. The EJC is typically found 20 to 24 nucleotides upstream of the splice junction.

The EJC also plays an important role in nonsense mediated decay, a surveillance system used in eukaryotes to destroy transcripts containing premature stop codons ( Trinkle-Mulcahy et al ., 2009 ; Chang et al ., 2007 ; Gehring et al ., 2005 ). Upon encountering an EJC during translation, the ribosome displaces the complex from the mRNA. The ribosome then continues until it reaches a stop codon. If, however, the mRNA contains a stop codon before the EJC, the nonsense mediated decay pathway is triggered. The EJC and its position thus contribute to transcript quality control.

The Evolution of the Spliceosome

A popular hypothesis regarding the origins of the spliceosome is that its predecessor was self-splicing RNA introns (eg Valadkhan, 2007 ). Such a hypothesis makes sense of several observations. For example, a simpler way to achieve splicing presumably would be to bring the splice sites together in one step to directly cleave and rejoin them. The proposed scenario, however, would explain the use of a lariat intermediate, since a lariat is generated by group II RNA intron sequences ( Lambowitz1 and Zimmerly, 2011 ; Vogel and Borner, 2002 ).

The hypothesis also helps to clarify why RNA molecules play such an important part in the splicing process. Examples of self-splicing RNA introns still exist today (eg, in the nuclear rRNA genes of the ciliate Tetrahymena ) ( Hagen and Cech, 1999 ; Price et al ., 1995 ; Price and Cech, 1988 ; Kruger et al ., 1982 ).

These observations may be taken as evidence as to the spliceosome’s evolutionary predecessor, but they are hardly helpful in elucidating a plausible scenario for transitioning from one to the other. The spliceosome machinery is far more complex and sophisticated than autocatalytic ribozymes, involving not just five RNAs but hundreds of proteins.

Conclusion

The spliceosome is truly one of the most remarkable molecular machines in the cell. My purpose here was only to offer readers a small glimpse of this elegant work of nanotechnology, leaving out, of course, much important detail. As I venture deeper and deeper into the hidden world of the cell, the more I am filled with a tremendous sense of awe at the sheer genius and beauty of the design. If such engineering sophistication were encountered in any other realm of inquiry, it would immediately be attributed to intelligence. If biological systems give every appearance of having been designed, are we not justified — in the absence of a viable alternative explanation — in inferring that they most likely are the product of design?

Notes:

[1] Reprinted from Structure Volume 20, Issue 6. Ziv Frankenstein, Joseph Sperling, Ruth Sperling, Miriam Eisenstein. A Unique Spatial Arrangement of the snRNPs within the Native Spliceosome Emerges from In Silico Studies. Pages 1097-1106. Copyright (2012), with permission from Elsevier.

Fonte: http://www.evolutionnews.org/2013/09/the_spliceosome_1076371.html