Codificação, Codificação de canal, Bit e Decodificação.


Hoje a biologia, mais precisamente a genética está intrínseca a Teoria da Informação, Tecnologia da Informação, e inevitavelmente vem a minha mente a Teoria do Design Inteligente. E vem a minha mente o que eu havia postado sobre um artigo do Science Daily, onde o autor de um trabalho afirma que todo ser vivo é um computador biológico. E isso é racional.Segue agora algo que nós conhecemos, temos experiência e encontramos nos computadores biológicos.Alguns dos links do wikki estão sem nenhum artigo,outros estão com os artigos referentes, clique para saber mais detalhes sobre informações,armazenamento e etc.

 

Codificação

Origem: Wikipédia, a enciclopédia livre.

Em processamento digital de sinaisCodificação significa a modificação de características de um sinal para torná-lo mais apropriado para uma aplicação específica, como por exemplo transmissão ou armazenamento de dados.

Neste contexto, existem três tipos de codificação:

 

Técnicas de Codificação

No que diz respeito às principais técnicas de codificação, podemos dividí-las em 3:

  • Non Return to Zero (NRZ): Existem dois níveis de tensão ou corrente, para representar os dois símbolos digitais (0 e 1). É a forma mais simples de codificação e consiste em associar um nível de tensão a cada bit: um bit 1 será codificado sob a forma de uma tensão elevada e um bit 0 sob a forma de uma tensão baixa ou nula.

NRZcode.png

  • Return to Zero (RZ): Na codificação RZ o nível de tensão ou corrente retorna sempre ao nível zero após uma transição provocada pelos dados a transmitir (a meio da transmissão do bit). Geralmente um bit 1 é representado por um nível elevado, mas a meio da transmissão do bit o nível retorna a zero.

RZcode.png

  • Diferenciais: Neste tipo de codificação, os 0 e 1 são representados através de uma alteração do estado da tensão ou corrente. Assim, o valor 1 é representado pela passagem de uma tensão ou corrente baixa/nula para uma tensão ou corrente elevada. O valor 0 é o contrário, ou seja, passa-se de uma tensão ou corrente elevada para outra baixa/nula.

 

Ver também

Codificação de canal

Em matemáticaciência da computaçãotelecomunicaçõesengenharia elétricaestatística e teoria da informação, chama-seCodificação de Canal, ou Detecção e Correção de Erros à codificação de sinais de informação com o objetivo de diminuir a taxa de erro de símbolo e/ou de bit durante a transmissão dos mesmos através de um canal de comunicação. Assim, trata-se do estudo dos códigos detectores e corretores de erros.

Existem basicamente dois tipos de códigos corretores/detectores de erros:

História

O estudo de códigos corretores de erros iniciou-se na década de 19401 , específicamente no ano de 19482 em um trabalho publicado por Claude E. Shannon.

Aplicações

Pode-se comprovar a presença dos códigos corretores de erro em diversas situações do cotidiano, como por exemplo quando se assiste a um programa de televisão, se ouve música a partir de um CD, se faz um telefonema, se assiste um filme gravado em DVD, ou se navega pela internet2 .

Notas

  1. Ir para cima↑ Conforme Dutra (2006)
  2. ↑ Ir para:a b Conforme Câmara & Souza

Referências

Ver também

 

Bit

Nota: Não confundir com Byte

 

Bit (simplificação para dígito binário, “BInary digiT” em inglês) é a menor unidade de informação que pode ser armazenada ou transmitida. Usada na Computação e na Teoria da Informação. Um bit pode assumir somente 2 valores, por exemplo: 0 ou 1, verdadeiro ou falso.

Embora os computadores tenham instruções (ou comandos) que possam testar e manipular bits, geralmente são idealizados para armazenar instruções em múltiplos de bits, chamados bytes. No princípio, byte tinha tamanho variável mas atualmente tem oito bits. Bytes de oito bits também são chamados de octetos. Existem também termos para referir-se a múltiplos de bits usando padrões prefixados, como quilobit (kb), megabit (Mb), gigabit (Gb) e Terabit (Tb). De notar que a notação para bit utiliza um “b” minúsculo, em oposição à notação para byte que utiliza um “B” maiúsculo (kBMBGBTB).

Fisicamente, o valor de um bit é, de uma maneira geral, armazenado como uma carga elétrica acima ou abaixo de um nível padrão em um único capacitor dentro de um dispositivo de memória. Mas, bits podem ser representados fisicamente por vários meios. Os meios e técnicas comumente usados são: Pela eletricidade, como já citado, por via da luz (em fibras ópticas, ou em leitores e gravadores dediscos ópticos por exemplo), por via de ondas eletromagnéticas (rede wireless), ou também, por via de polarização magnética (discos rígidos).

Telecomunicações ou volume de tráfego em redes de computadores são geralmente descritos em termos de bits por segundo. Por exemplo, “um modem de 56 kb/s é capaz de transferir dados a 56 quilobits em um único segundo” (o que equivale a 6,8 quilobytes (kibibyte), 6,8 kB, com B maiúsculo para mostrar que estamos nos referindo a bytes e não a bits. Ethernet transfere dados a velocidades que variam de 10 megabits por segundo a 1 gigabit por segundo (de 1,19 a 119 megabytes(mebibyte) por segundo). NoSistema Internacional (SI), os prefixos quilo-, mega-, etc às vezes têm o significado modificado quando aplicados a bits e bytes (até bits toleram calculos decimais pois é pontual ou é 0 ou é 1, já bytes não pois se fala dos dados agrupados): para explicação, vejaPrefixos binários.

Saiba Mais

Bit também é conceituado como a menor unidade de “informação” armazenável. Porém o bit (0 ou 1), apesar de ser um dado (fato não processado) não pode ser confundido como a menor “unidade de medida da informação“, pois representa apenas valores que, somente em conjunto (octeto ou byte), formarão a informação em si, que é o produto do processamento desse conjunto de dados.

Cabe salientar que o bit é usado como unidade de medida sim, mas em transmissão de dados de forma serial.

Em comunicação de dados apenas a definição métrica de um kilobyte (1.000 bytes por kilobyte) está correto. A definição binária de um kilobyte (1.024 bytes por kilobyte) é usado em áreas como armazenamento de dados (disco rígido, memória), mas não para expressar a largura de banda e taxa de transferência.

Ver também

 

Decodificação

Decodificação é a ação de transcrição, interpretação ou tradução de um código, também conhecida como criptografia, (dado ou conjunto de dados em um formato desconhecido) de modo que possa ser entendido pelo decodificador ou seu utilizador (para um formato conhecido, ou legível).

A decodificação pode ser utilizada em espionagem, para decifrar informações sigilosas, ou para lidar mais facilmente com determinados meios de comunicação, como o telégrafo e o código Morse

Quando apertamos uma tecla numérica de um computador, por exemplo, um circuito é capaz de decodificá-la para que ele possa entender e realizar a operação. Para isso, é necessário que o dispositivo responsável por decodificar conheça o código respectivo.

Não será permitido neste blog, insultos, palavrões, ataques pessoais, caso essas regras não sejam seguidas não perca seu precioso tempo postando comentário. Qualquer comentário que violar a política do blog será apagado sem aviso prévio. Na persistência da violação o comentador será banido.