O que a Ciência da Computação estuda? - Ciência - 2023


science
O que a Ciência da Computação estuda? - Ciência
O que a Ciência da Computação estuda? - Ciência

Contente

o Informática é uma ciência moderna que estuda os métodos, processos e técnicas para processar, transmitir ou salvar dados de forma digital. Com o grande avanço da tecnologia a partir da segunda metade do século 20, essa disciplina foi ganhando importância nas atividades produtivas, ao mesmo tempo em que aumentava sua especificidade.

O desenvolvimento de computadores, circuitos fechados, robôs, máquinas, telefones celulares e o surgimento da Internet, fazem da computação uma das ciências mais populares nas últimas décadas.

A etimologia da palavra computação tem várias origens possíveis. Ele surgiu principalmente como um acrônimo para as palavras informação e automatique (informação automática).

Em 1957, foi Karl Steinbuch, que incluiu este termo em um documento chamado Informatik: Automatische InformationsverarbeitungEm 1962, o engenheiro francês Philippe Dreyfus batizou sua empresa de Société d'Informatique Appliquée. No entanto, foi o russo Alexander Ivanovich Mikhailov o primeiro a usar essa palavra como "estudo, organização e disseminação de informações científicas".


Entre o seu vasto campo de aplicação, esta ciência dedica-se ao estudo do processamento automático da informação através de dispositivos eletrónicos e sistemas informáticos, que podem ser utilizados para diversos fins.

O que a ciência da computação estuda? Formulários

O campo de aplicação da computação tem ampliado seu espectro com o desenvolvimento tecnológico na última metade do século, principalmente devido ao impulso dos computadores e da Internet.

Suas principais tarefas incluem projeto, desenvolvimento, planejamento de circuito fechado, preparação de documentos, monitoramento e controle de processo.

É também responsável pela criação de robôs industriais, bem como por tarefas relacionadas com o vasto campo das telecomunicações e a criação de jogos, aplicações e ferramentas para dispositivos móveis.

Conformação de computação

A informática é uma ciência na qual convergem conhecimentos e conhecimentos de várias disciplinas, começando pela matemática e física, mas também pela computação, programação e design, entre outros.


Esta união sinérgica entre diferentes ramos do conhecimento é complementada na informática com as noções de hardware, software, telecomunicações, internet e eletrónica.

História

A história da computação começou muito antes da disciplina que leva seu nome. Acompanhou a humanidade quase desde as suas origens, embora sem ser reconhecida como ciência.

Desde a criação do ábaco chinês, registrado em 3000 aC e considerado o primeiro dispositivo de cálculo da humanidade, é possível falar em computação.

Essa tabela dividida em colunas, permitiu através dos movimentos de suas unidades realizar operações matemáticas como adição e subtração. Poderia ser o ponto de partida desta ciência.

Mas a evolução da computação apenas começou com o ábaco. No século 17, Blaise Pascal, um dos mais renomados cientistas franceses de sua época, criou a máquina de calcular e deu mais um passo evolutivo.


Esse dispositivo servia apenas para adições e subtrações, mas foi a base para o alemão Leibniz, quase 100 anos depois, no século 18, desenvolver um aparelho semelhante, mas com multiplicações e divisões.

Essas três criações foram os primeiros processos de computador a serem registrados. Demorou quase 200 anos para esta disciplina ganhar relevância e se tornar uma ciência.

Nas primeiras décadas do século 20, o desenvolvimento da eletrônica foi o impulso final para a computação moderna. A partir daí, esse ramo da ciência passa a resolver problemas técnicos decorrentes das novas tecnologias.

Nessa época houve uma mudança dos sistemas baseados em engrenagens e hastes para os novos processos de impulsos elétricos, classificados por 1 quando a corrente passa e por 0 quando não passa, o que revolucionou esta disciplina.

O passo final foi dado durante a Segunda Guerra Mundial com a fabricação do primeiro computador, o Mark I, que abriu um novo campo de desenvolvimento ainda em expansão.

Noções básicas de computação

A informática, entendida como o processamento automático da informação por meio de dispositivos eletrônicos e sistemas computacionais, deve ter algumas capacidades para poder se desenvolver.

Três operações centrais são essenciais: a entrada, que se refere à captura de informações; o processamento da mesma informação e da saída, que é a possibilidade de transmissão dos resultados.

O conjunto dessas capacidades de dispositivos eletrônicos e sistemas de computador é conhecido como um algoritmo, que é o conjunto ordenado de operações sistemáticas para realizar um cálculo e encontrar uma solução.

Por meio desses processos, a computação desenvolveu vários tipos de dispositivos que passaram a facilitar as tarefas da humanidade em todos os tipos de atividades.

Embora sua área de aplicação não tenha limites rígidos, é principalmente utilizada em processos industriais, gestão empresarial, armazenamento de informações, controle de processos, comunicações, transporte, medicina e educação.

Gerações

Dentro da computação e da computação, pode-se falar de cinco gerações de processadores que marcaram a história moderna desde seu surgimento em 1940 até o presente.

Primeira geração

A primeira geração teve seu desenvolvimento entre 1940 e 1952, quando os computadores foram construídos e operados com válvulas. Sua evolução e utilidade se deram fundamentalmente no campo científico-militar.

Esses dispositivos possuíam circuitos mecânicos, cujos valores foram modificados para poderem ser programados de acordo com as finalidades necessárias.

Segunda geração

A segunda geração foi desenvolvida entre 1952 e 1964, com o surgimento de transistores que substituíram as velhas válvulas. Assim surgiram os aparelhos comerciais, que possuíam uma programação prévia.

Outro fato central dessa etapa é o surgimento dos primeiros códigos e linguagens de programação, Cobol e Fortran. Anos depois, novos surgiram.

Terceira geração

A terceira geração teve um período de desenvolvimento um pouco menor que o de seus antecessores, durou entre 1964 e 1971, quando surgiram os circuitos integrados.

Os menores custos na produção dos aparelhos, o aumento da capacidade de armazenamento e a redução do tamanho físico marcaram essa etapa.

Além disso, graças ao desenvolvimento de linguagens de programação, que ganharam especificidade e habilidades, os primeiros programas utilitários começaram a florescer.

Quarta geração

A quarta geração foi produzida a partir de 1971 e durou uma década, até 1981, tendo os componentes eletrônicos como os principais protagonistas da evolução.

Assim começaram a aparecer no mundo dos computadores os primeiros microprocessadores, que incluíam todos os elementos básicos dos antigos computadores em um único circuito integrado.

Quinta geração

Finalmente, a quinta geração começou em 1981 e se estende até o presente, em que a tecnologia permeia todos os aspectos das sociedades modernas.

O principal desenvolvimento desta fase evolutiva da computação foram os computadores pessoais (PCs), que mais tarde deram origem a um vasto grupo de tecnologias associadas que hoje dominam o mundo.

Referências

  1. Informarática, informação e comunicação, Documentação Social: Jornal de Estudos Sociais e Tecnologia Aplicada ', 1999.
  2. Tratamento (automático) de informações, Diego Dikygs, site digital Notions of Computing, 2011.
  3. História da Computaçãon, Patricio Villalva.
  4. Revista Revista Horizonte InformáÉtica Educacional, Buenos Aires, 1999.