O que a Ciência da Computação estuda? - Ciência - 2023
science
Contente
- O que a ciência da computação estuda? Formulários
- Conformação de computação
- História
- Noções básicas de computação
- Gerações
- Primeira geração
- Segunda geração
- Terceira geração
- Quarta geração
- Quinta geração
- Referências
o Informática é uma ciência moderna que estuda os métodos, processos e técnicas para processar, transmitir ou salvar dados de forma digital. Com o grande avanço da tecnologia a partir da segunda metade do século 20, essa disciplina foi ganhando importância nas atividades produtivas, ao mesmo tempo em que aumentava sua especificidade.
O desenvolvimento de computadores, circuitos fechados, robôs, máquinas, telefones celulares e o surgimento da Internet, fazem da computação uma das ciências mais populares nas últimas décadas.
A etimologia da palavra computação tem várias origens possíveis. Ele surgiu principalmente como um acrônimo para as palavras informação e automatique (informação automática).
Em 1957, foi Karl Steinbuch, que incluiu este termo em um documento chamado Informatik: Automatische Informationsverarbeitung. Em 1962, o engenheiro francês Philippe Dreyfus batizou sua empresa de Société d'Informatique Appliquée. No entanto, foi o russo Alexander Ivanovich Mikhailov o primeiro a usar essa palavra como "estudo, organização e disseminação de informações científicas".
Entre o seu vasto campo de aplicação, esta ciência dedica-se ao estudo do processamento automático da informação através de dispositivos eletrónicos e sistemas informáticos, que podem ser utilizados para diversos fins.
O que a ciência da computação estuda? Formulários
O campo de aplicação da computação tem ampliado seu espectro com o desenvolvimento tecnológico na última metade do século, principalmente devido ao impulso dos computadores e da Internet.
Suas principais tarefas incluem projeto, desenvolvimento, planejamento de circuito fechado, preparação de documentos, monitoramento e controle de processo.
É também responsável pela criação de robôs industriais, bem como por tarefas relacionadas com o vasto campo das telecomunicações e a criação de jogos, aplicações e ferramentas para dispositivos móveis.
Conformação de computação
A informática é uma ciência na qual convergem conhecimentos e conhecimentos de várias disciplinas, começando pela matemática e física, mas também pela computação, programação e design, entre outros.
Esta união sinérgica entre diferentes ramos do conhecimento é complementada na informática com as noções de hardware, software, telecomunicações, internet e eletrónica.
História
A história da computação começou muito antes da disciplina que leva seu nome. Acompanhou a humanidade quase desde as suas origens, embora sem ser reconhecida como ciência.
Desde a criação do ábaco chinês, registrado em 3000 aC e considerado o primeiro dispositivo de cálculo da humanidade, é possível falar em computação.
Essa tabela dividida em colunas, permitiu através dos movimentos de suas unidades realizar operações matemáticas como adição e subtração. Poderia ser o ponto de partida desta ciência.
Mas a evolução da computação apenas começou com o ábaco. No século 17, Blaise Pascal, um dos mais renomados cientistas franceses de sua época, criou a máquina de calcular e deu mais um passo evolutivo.
Esse dispositivo servia apenas para adições e subtrações, mas foi a base para o alemão Leibniz, quase 100 anos depois, no século 18, desenvolver um aparelho semelhante, mas com multiplicações e divisões.
Essas três criações foram os primeiros processos de computador a serem registrados. Demorou quase 200 anos para esta disciplina ganhar relevância e se tornar uma ciência.
Nas primeiras décadas do século 20, o desenvolvimento da eletrônica foi o impulso final para a computação moderna. A partir daí, esse ramo da ciência passa a resolver problemas técnicos decorrentes das novas tecnologias.
Nessa época houve uma mudança dos sistemas baseados em engrenagens e hastes para os novos processos de impulsos elétricos, classificados por 1 quando a corrente passa e por 0 quando não passa, o que revolucionou esta disciplina.
O passo final foi dado durante a Segunda Guerra Mundial com a fabricação do primeiro computador, o Mark I, que abriu um novo campo de desenvolvimento ainda em expansão.
Noções básicas de computação
A informática, entendida como o processamento automático da informação por meio de dispositivos eletrônicos e sistemas computacionais, deve ter algumas capacidades para poder se desenvolver.
Três operações centrais são essenciais: a entrada, que se refere à captura de informações; o processamento da mesma informação e da saída, que é a possibilidade de transmissão dos resultados.
O conjunto dessas capacidades de dispositivos eletrônicos e sistemas de computador é conhecido como um algoritmo, que é o conjunto ordenado de operações sistemáticas para realizar um cálculo e encontrar uma solução.
Por meio desses processos, a computação desenvolveu vários tipos de dispositivos que passaram a facilitar as tarefas da humanidade em todos os tipos de atividades.
Embora sua área de aplicação não tenha limites rígidos, é principalmente utilizada em processos industriais, gestão empresarial, armazenamento de informações, controle de processos, comunicações, transporte, medicina e educação.
Gerações
Dentro da computação e da computação, pode-se falar de cinco gerações de processadores que marcaram a história moderna desde seu surgimento em 1940 até o presente.
Primeira geração
A primeira geração teve seu desenvolvimento entre 1940 e 1952, quando os computadores foram construídos e operados com válvulas. Sua evolução e utilidade se deram fundamentalmente no campo científico-militar.
Esses dispositivos possuíam circuitos mecânicos, cujos valores foram modificados para poderem ser programados de acordo com as finalidades necessárias.
Segunda geração
A segunda geração foi desenvolvida entre 1952 e 1964, com o surgimento de transistores que substituíram as velhas válvulas. Assim surgiram os aparelhos comerciais, que possuíam uma programação prévia.
Outro fato central dessa etapa é o surgimento dos primeiros códigos e linguagens de programação, Cobol e Fortran. Anos depois, novos surgiram.
Terceira geração
A terceira geração teve um período de desenvolvimento um pouco menor que o de seus antecessores, durou entre 1964 e 1971, quando surgiram os circuitos integrados.
Os menores custos na produção dos aparelhos, o aumento da capacidade de armazenamento e a redução do tamanho físico marcaram essa etapa.
Além disso, graças ao desenvolvimento de linguagens de programação, que ganharam especificidade e habilidades, os primeiros programas utilitários começaram a florescer.
Quarta geração
A quarta geração foi produzida a partir de 1971 e durou uma década, até 1981, tendo os componentes eletrônicos como os principais protagonistas da evolução.
Assim começaram a aparecer no mundo dos computadores os primeiros microprocessadores, que incluíam todos os elementos básicos dos antigos computadores em um único circuito integrado.
Quinta geração
Finalmente, a quinta geração começou em 1981 e se estende até o presente, em que a tecnologia permeia todos os aspectos das sociedades modernas.
O principal desenvolvimento desta fase evolutiva da computação foram os computadores pessoais (PCs), que mais tarde deram origem a um vasto grupo de tecnologias associadas que hoje dominam o mundo.
Referências
- Informarática, informação e comunicação, Documentação Social: Jornal de Estudos Sociais e Tecnologia Aplicada ', 1999.
- Tratamento (automático) de informações, Diego Dikygs, site digital Notions of Computing, 2011.
- História da Computaçãon, Patricio Villalva.
- Revista Revista Horizonte InformáÉtica Educacional, Buenos Aires, 1999.