Hoje a biologia, mais precisamente a genética está intrínseca a Teoria da Informação, Tecnologia da Informação, e inevitavelmente vem a minha mente a Teoria do Design Inteligente. E vem a minha mente o que eu havia postado sobre um artigo do Science Daily, onde o autor de um trabalho afirma que todo ser vivo é um computador biológico. E isso é racional.Segue agora algo que nós conhecemos, temos experiência e encontramos nos computadores biológicos.Alguns dos links do wikki estão sem nenhum artigo,outros estão com os artigos referentes, clique para saber mais detalhes sobre informações,armazenamento e etc.
Codificação
Em processamento digital de sinais, Codificação significa a modificação de características de um sinal para torná-lo mais apropriado para uma aplicação específica, como por exemplo transmissão ou armazenamento de dados.
Neste contexto, existem três tipos de codificação:
- Codificação de canal: Códigos detectores ou corretores de erros.
- Codificação de fonte: Criptografia e compressão de dados.
- Códigos de linha: Especificam a forma do sinal elétrico que será usado para representar os símbolos de informação. No caso binário, especifica o sinal elétrico dos bits 1 e 0.
Técnicas de Codificação
No que diz respeito às principais técnicas de codificação, podemos dividí-las em 3:
- Non Return to Zero (NRZ): Existem dois níveis de tensão ou corrente, para representar os dois símbolos digitais (0 e 1). É a forma mais simples de codificação e consiste em associar um nível de tensão a cada bit: um bit 1 será codificado sob a forma de uma tensão elevada e um bit 0 sob a forma de uma tensão baixa ou nula.
- Return to Zero (RZ): Na codificação RZ o nível de tensão ou corrente retorna sempre ao nível zero após uma transição provocada pelos dados a transmitir (a meio da transmissão do bit). Geralmente um bit 1 é representado por um nível elevado, mas a meio da transmissão do bit o nível retorna a zero.
- Diferenciais: Neste tipo de codificação, os 0 e 1 são representados através de uma alteração do estado da tensão ou corrente. Assim, o valor 1 é representado pela passagem de uma tensão ou corrente baixa/nula para uma tensão ou corrente elevada. O valor 0 é o contrário, ou seja, passa-se de uma tensão ou corrente elevada para outra baixa/nula.
Ver também
- Código Fonético Internacional
- Código Internacional Q
- CRC
- Processamento de sinal
- Telecomunicação
- Teoria da informação
- Caracteres Unicode
Codificação de canal
Em matemática, ciência da computação, telecomunicações, engenharia elétrica, estatística e teoria da informação, chama-seCodificação de Canal, ou Detecção e Correção de Erros à codificação de sinais de informação com o objetivo de diminuir a taxa de erro de símbolo e/ou de bit durante a transmissão dos mesmos através de um canal de comunicação. Assim, trata-se do estudo dos códigos detectores e corretores de erros.
Existem basicamente dois tipos de códigos corretores/detectores de erros:
História
O estudo de códigos corretores de erros iniciou-se na década de 19401 , específicamente no ano de 19482 em um trabalho publicado por Claude E. Shannon.
Aplicações
Pode-se comprovar a presença dos códigos corretores de erro em diversas situações do cotidiano, como por exemplo quando se assiste a um programa de televisão, se ouve música a partir de um CD, se faz um telefonema, se assiste um filme gravado em DVD, ou se navega pela internet2 .
Notas
- Ir para cima↑ Conforme Dutra (2006)
- ↑ Ir para:a b Conforme Câmara & Souza
Referências
- Blahut, Richard E., Theory and Practice of Error Control Codes, Addison-Wesley, Reading, Massachusetts, 1984.
- Câmara, Marcos Antônio da, Souza, Adenilce Oliveira. Códigos Corretores de Erros Lineares. Monografia.
- Dutra, Flaviana Santos. Sobre Códigos Diedrais e Quatérnios. 2006. Tese de Doutorado.
- Hefez, A. E Villela, M.L.T., Códigos Corretores de Erros, IMPA, Rio de Janeiro, 2002.
- Roman, Steven. Introduction to coding and information theory. Springer, 1997. 323 p. ISBN 9780387947044
Ver também
Bit
Nota: Não confundir com Byte
Bit (simplificação para dígito binário, “BInary digiT” em inglês) é a menor unidade de informação que pode ser armazenada ou transmitida. Usada na Computação e na Teoria da Informação. Um bit pode assumir somente 2 valores, por exemplo: 0 ou 1, verdadeiro ou falso.
Embora os computadores tenham instruções (ou comandos) que possam testar e manipular bits, geralmente são idealizados para armazenar instruções em múltiplos de bits, chamados bytes. No princípio, byte tinha tamanho variável mas atualmente tem oito bits. Bytes de oito bits também são chamados de octetos. Existem também termos para referir-se a múltiplos de bits usando padrões prefixados, como quilobit (kb), megabit (Mb), gigabit (Gb) e Terabit (Tb). De notar que a notação para bit utiliza um “b” minúsculo, em oposição à notação para byte que utiliza um “B” maiúsculo (kB, MB, GB, TB).
Fisicamente, o valor de um bit é, de uma maneira geral, armazenado como uma carga elétrica acima ou abaixo de um nível padrão em um único capacitor dentro de um dispositivo de memória. Mas, bits podem ser representados fisicamente por vários meios. Os meios e técnicas comumente usados são: Pela eletricidade, como já citado, por via da luz (em fibras ópticas, ou em leitores e gravadores dediscos ópticos por exemplo), por via de ondas eletromagnéticas (rede wireless), ou também, por via de polarização magnética (discos rígidos).
Telecomunicações ou volume de tráfego em redes de computadores são geralmente descritos em termos de bits por segundo. Por exemplo, “um modem de 56 kb/s é capaz de transferir dados a 56 quilobits em um único segundo” (o que equivale a 6,8 quilobytes (kibibyte), 6,8 kB, com B maiúsculo para mostrar que estamos nos referindo a bytes e não a bits. Ethernet transfere dados a velocidades que variam de 10 megabits por segundo a 1 gigabit por segundo (de 1,19 a 119 megabytes(mebibyte) por segundo). NoSistema Internacional (SI), os prefixos quilo-, mega-, etc às vezes têm o significado modificado quando aplicados a bits e bytes (até bits toleram calculos decimais pois é pontual ou é 0 ou é 1, já bytes não pois se fala dos dados agrupados): para explicação, vejaPrefixos binários.
Saiba Mais
Bit também é conceituado como a menor unidade de “informação” armazenável. Porém o bit (0 ou 1), apesar de ser um dado (fato não processado) não pode ser confundido como a menor “unidade de medida da informação“, pois representa apenas valores que, somente em conjunto (octeto ou byte), formarão a informação em si, que é o produto do processamento desse conjunto de dados.
Cabe salientar que o bit é usado como unidade de medida sim, mas em transmissão de dados de forma serial.
Em comunicação de dados apenas a definição métrica de um kilobyte (1.000 bytes por kilobyte) está correto. A definição binária de um kilobyte (1.024 bytes por kilobyte) é usado em áreas como armazenamento de dados (disco rígido, memória), mas não para expressar a largura de banda e taxa de transferência.
Ver também
Decodificação
Decodificação é a ação de transcrição, interpretação ou tradução de um código, também conhecida como criptografia, (dado ou conjunto de dados em um formato desconhecido) de modo que possa ser entendido pelo decodificador ou seu utilizador (para um formato conhecido, ou legível).
A decodificação pode ser utilizada em espionagem, para decifrar informações sigilosas, ou para lidar mais facilmente com determinados meios de comunicação, como o telégrafo e o código Morse
Quando apertamos uma tecla numérica de um computador, por exemplo, um circuito é capaz de decodificá-la para que ele possa entender e realizar a operação. Para isso, é necessário que o dispositivo responsável por decodificar conheça o código respectivo.