Artigos

Quais dispositivos usavam programas semelhantes aos de computador na era industrial?

Quais dispositivos usavam programas semelhantes aos de computador na era industrial?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Como possivelmente alguns de vocês se lembram, os primeiros computadores tinham uma interface homem-máquina muito pequena e os programas de codificação eram feitos por cartões como este:

ou uma fita como esta:

Esta invenção de controlar máquinas usando elementos perfurados (com lacunas ou botões) é mais antiga e foi usada em muitos casos, como para cartões de trabalhadores usados ​​para registrar seu tempo de trabalho, caixas de música, etc.

Esta invenção pode ser feita inicialmente em tear Jacquard para controlar a ordem dos fios em cores diferentes para fazer um padrão.

Tenho certeza que li também sobre outro uso comum desse tipo (com fendas ou botões) de máquina de controle, que foi um tanto importante na era industrial, não podia ser uma máquina a vapor, mas não me lembro. Qual era o outro uso do cartão perfurado (ou talvez um cilindro) na indústria?

(Não era o que a Wikipedia diz:

No final do século 19, Herman Hollerith levou a ideia de usar cartões perfurados para armazenar informações um passo adiante quando criou uma máquina de tabulação de cartões perfurados que foi usada no Censo dos EUA de 1890.

Tenho certeza de que era uma máquina grande)


Acredito que os primeiros dispositivos "programáveis" de uso industrial comum foram os grandes teares de energia industrial na Inglaterra no final do século 18 e início do século 19. O tear Jacquard em 1801 foi o primeiro a usar cartões perfurados para sua programação.

Na Ucrânia, o russo Semen Korasakov viu o potencial desses cartões para armazenamento e recuperação de informações e projetou máquinas para esse fim no início da década de 1830. Wikipedia afirma que até então ninguém usava os cartões fora da indústria têxtil. Infelizmente, parece que ninguém fora da Europa oriental ouviu falar dos dispositivos de Karasakov até o século XX.

Quando o matemático Ada Lovelace estava ajudando Charles Babbage com seu projeto de mecanismo analítico (o primeiro projeto de dispositivo de computação mecânica programável semi-prático conhecido) na década de 1830, eles pegaram emprestado a ideia de programá-lo por meio de cartões perfurados. A condessa Lovelace chegou a escrever e publicar um algoritmo para ele. Com base nisso, argumenta-se que ela foi a primeira programadora de computador do mundo.

Jonathan Aylen diz que as siderúrgicas estavam de fato usando cartões perfurados para programação antes dos computadores, e que a transição foi tão gradual que é de fato difícil dizer exatamente quando o controle computadorizado da siderúrgica realmente começou. Portanto, presumivelmente, os cartões estavam sendo usados ​​em outras fábricas que não apenas têxteis (por exemplo: aço, madeira serrada, papel) antes que os controles do computador fossem introduzidos. No entanto, parece que o ideia de usá-los em dispositivos de computação é realmente mais antigo do que isso.


TECNOLOGIA DE ESCRITÓRIO

A mudança de tecnologias & # x2014 incluindo computadores pessoais (PCs), projetores de slides, projetores de filmes, retroprojetores, monitores de televisão, videocassetes, reprodutores de videodisco, sistemas multimídia e a Internet & # x2014 tiveram um grande impacto no ambiente de escritório desde o início do século XX. A capacidade de usar a tecnologia é uma habilidade essencial na força de trabalho em constante mudança do século XXI.

O escritório moderno mudou drasticamente desde a década de 1990. Escritórios na sociedade atual estão transmitindo informações por meio de correio eletrônico (e-mail), calendários eletrônicos e teleconferência, bem como outros dispositivos eletrônicos. A comunicação por meio da tecnologia é tão importante quanto a comunicação oral e escrita no ambiente de trabalho. A tecnologia continua a desempenhar um papel vital na transformação do ambiente de negócios.

Os avanços da tecnologia transformaram o mundo do trabalho. À medida que o ambiente de trabalho muda, os trabalhadores individuais veem como seu trabalho se conecta não apenas ao seu local de trabalho específico, mas a toda a cadeia de valor.

O backbone da tecnologia é a rede local (LAN), uma rede de computador de um único local ou a rede remota (WAN), que oferece suporte a grupos de trabalho em todo o mundo. Ambas as redes fornecem ferramentas para que os usuários transmitam dados, gráficos, correio e voz pela rede. LANs e WANs permitem que equipes de trabalho distribuídas concluam projetos usando groupware e sistemas de suporte à decisão.

Fusão na via rápida da superestrada da informação do mundo do trabalho do século XXI, sistemas de informação mais rápidos, acesso instantâneo ao mercado global, escritórios virtuais, equipes virtuais e organizações virtuais estão chegando existência. O ímpeto é a tecnologia. A explosão da tecnologia transformou todos os níveis do ambiente de negócios & # x2014, do típico funcionário de escritório ao CEO (CEO), proporcionando um desafio para todos. A tecnologia está criando novos gêneros de conteúdo. A tecnologia de escritório concentra-se nas funções de informações de escritório, como processamento de texto, processamento de dados, gráficos, editoração eletrônica e comunicação.


Pequenos computadores encontram um nicho industrial

Quando Eben Upton desenvolveu o Raspberry Pi em 2012, ele esperava que o computador de placa única simples fosse atraente principalmente para crianças em idade escolar. Os consumidores tiveram outras idéias. Margaret Harris falou com ele sobre como computadores simples como o Raspberry Pi estão se tornando parte integrante da emergente Internet das Coisas industrial

A Internet das Coisas (IoT) significa coisas diferentes para pessoas diferentes. Qual é a sua definição?

Acho que prestamos um pequeno desserviço, porque os primeiros exemplos de dispositivos IoT - aqueles em que as pessoas costumam pensar quando ouvem o termo "Internet das coisas" - eram itens de consumo, como as lâmpadas conectadas à Internet , interruptores inteligentes e termostatos fabricados por uma empresa chamada Nest. Eu também tenho um Nest, mas é enganoso pensar na IoT em termos de coisas assim. A maior parte do potencial para dispositivos conectados está no lado industrial, porque lá as aplicações não são limitadas pela atenção humana.

O número de objetos IoT que você terá em sua vida como consumidor será contado nos dedos de uma mão. Você pode ter um termostato inteligente. Você pode ter um objeto do tipo assistente digital, como Alexa, da Amazon. Você pode ter alguma automação residencial para ligar e desligar as luzes e abrir a porta da garagem. Mas, fundamentalmente, você tem muito tempo para interagir com objetos conectados. A IoT industrial é mais interessante porque se trata principalmente de máquinas conversando com outras máquinas, e não há limite para o tamanho desse mercado, desde que haja um retorno sobre o investimento.

O mercado de objetos IoT industriais é grande devido à quantidade de dinheiro que você pode economizar. As ineficiências que abundam, digamos, na fabricação são tão enormes e demonstráveis ​​que você pode colocar muitos equipamentos extras de automação e monitoramento e isso rapidamente terá um retorno grande e demonstrável. Então, para mim, a IoT tem muito mais a ver com fábricas e como fazer com que os processos industriais funcionem de maneira mais uniforme do que com produtos de consumo.

Que tipo de processos industriais?

Vou te dar um exemplo da fábrica que faz Raspberry Pis. A fábrica fica em South Wales e é absolutamente vasta, é propriedade da Sony e eles fazem muitas outras coisas lá também. O equipamento industrial que eles usam tende a ter portas de dados na parte traseira, geralmente portas Ethernet ou portas seriais, que expelem dados sobre o desempenho das máquinas - mas quase sempre, historicamente, ninguém está ouvindo.

O motivo é que, para ouvir corretamente, você precisa de algo para se conectar a essas portas de dados e fazer um pré-processamento dos dados. Em seguida, você precisa disparar os dados processados ​​de volta pela rede para uma máquina que pode armazená-los até que você esteja pronto para analisá-los. Mas, até recentemente, não havia nada barato, de baixo consumo de energia e compacto o suficiente para conectar às portas de dados, e não havia nenhum lugar para armazenar os conjuntos de dados resultantes se você quisesse fazer backup deles. Também não tínhamos o conhecimento algorítmico necessário para extrair dados e transformá-los em informações que gerariam insights sobre como você pode melhorar o desempenho das máquinas.

Agora, com o colapso no custo do armazenamento de dados, a ascensão das técnicas de aprendizado de máquina e o surgimento de pequenos computadores como o Raspberry Pi, tudo mudou. Você tem algo que pode conectar a um equipamento industrial para capturar esse fluxo de dados. Você tem um lugar para colocar os dados que captura. E depois de colocá-lo de volta na rede, você terá as ferramentas de que precisa para obter informações a partir dele. Portanto, o que a Sony fez foi colocar em uma nova camada de monitoramento para observar o comportamento do equipamento e alimentá-lo nas operações analíticas de "big data" - e isso foi feito sem interromper os sistemas de controle industrial existentes que a empresa tem usado para anos.

De que outra forma pequenos dispositivos poderiam ser usados?

Existem muitos exemplos, mas um dos meus favoritos é que alguém colocou um Raspberry Pi conectado a um microfone em seu elevador e gravou o som do elevador funcionando. Depois de acumular dados suficientes, eles foram capazes de identificar quais sons eram ruins, no sentido de prever que o elevador precisaria de manutenção em um futuro próximo. A maior parte das implantações do Raspberry Pi na indústria são assim, no sentido de que envolvem monitoramento em vez de controle, embora isso esteja começando a mudar.

O que torna pequenos computadores como o Raspberry Pi adequados para esses aplicativos de “máquinas conversando com máquinas”?

Baixo custo e hackeabilidade são importantes porque, juntos, reduzem o custo da experimentação. Queremos que as pessoas possam experimentar essas coisas, adicionando monitoramento e automação às suas linhas de produção, usando quaisquer orçamentos discricionários que tenham à sua disposição, sem ficar presas a um fornecedor específico. Dessa forma, eles podem experimentar rapidamente e, se obtiverem um resultado negativo, tudo bem, eles gastaram apenas £ 50 em um Raspberry Pi. Mas, se obtiverem um resultado positivo, os baixos custos unitários desses computadores permitem que eles aumentem de escala enquanto mantêm um bom retorno sobre o investimento (ROI). As recompensas em alguns setores são bastante grandes, mas você ainda pode ganhar muito mais cálculos de ROI com um produto de £ 50 do que com um produto de £ 500, que é onde costumávamos estar em termos de equipamento de diagnóstico.

Há também um aspecto secundário nos cálculos de ROI, que é o custo total de propriedade. Se você conectar um PC e deixá-lo inativo, ele consumirá dezenas de libras de eletricidade por ano. Com um pequeno computador como o Raspberry Pi, isso cai para alguns quilos e, com o passar dos anos, a diferença aumenta. A falta de peças móveis em um Raspberry Pi também o torna robusto, então você não precisa substituí-las com tanta frequência. Construir uma máquina robusta foi fundamental para nós porque esperávamos que as crianças a usassem, e as métricas que usamos para isso também são úteis para a indústria. Qual é o ambiente mais difícil para um computador: uma plataforma de petróleo ou o quarto de uma criança?

Segurança é outro tópico que frequentemente surge nas conversas sobre a IoT. Como você mantém essas conversas máquina a máquina seguras?

Sempre que você fala sobre um glorioso universo de “big data” no qual dispositivos estão aspirando grandes quantidades de dados, as pessoas ficam enjoadas com isso. Isso não é irracional. Alguém fez uma televisão IoT há alguns anos que acabou gravando basicamente tudo o que acontecia em sua casa e enviando para a “nuvem” de dados, e as pessoas estavam com razão apavoradas.

Eu não tenho um dispositivo do tipo Alexa em minha casa. Também falo sobre muitas coisas secretas que minha esposa trabalha no Raspberry Pi, então conversamos muito sobre o negócio. Mas o mesmo problema também surge em um contexto industrial, e vejo o processamento de dados local como parte da solução. Se você estiver executando um aplicativo do tipo aprendizado de máquina, provavelmente não conseguirá treinar seus algoritmos localmente. Mas, uma vez que você tenha um modelo pré-treinado, provavelmente pode fazer inferência local usando o processador em um Raspberry Pi. Você pode imaginar a construção de um sistema de monitoramento composto de alguns sensores baratos conectados via Bluetooth a um Raspberry Pi que agrega dados desses sensores, faz algum processamento e, em seguida, envia uma quantidade relativamente pequena de dados relevantes pela rede.

Durante grande parte da história da computação, o progresso tem sido sobre como fazer computadores mais rápidos e poderosos. Essa ênfase está mudando e, em caso afirmativo, o que isso nos diz sobre a direção futura do campo?

Acho que a era dos retornos gratuitos em velocidades de processador está chegando ao fim, porque estamos ficando sem átomos. As menores estruturas nos chips de silício estão agora espaçadas cerca de 7 nm, o que é cerca de 70 átomos, e nessas distâncias tanto a física quanto a economia do sistema começam a dar errado. Nosso conhecimento do comportamento dos semicondutores é baseado em um modelo estatístico de cada mil átomos de silício tendo, em média, esse número de átomos dopantes embutidos neles. Mas é claro, uma vez que você está fazendo estruturas de silício com 70 átomos de distância, não é mais um processo estatístico, então suas suposições começam a se quebrar no lado da física. Ao mesmo tempo, do lado econômico, está se tornando extremamente caro construir chips mais rápidos.

Isso significa que a lei de Moore não é mais válida?

A lei de Moore sempre foi realmente um acordo entre as partes interessadas - projetistas de chips, fundições e fabricantes de equipamentos de fundição - de que o número de transistores por unidade de área de silício avançaria ao longo de uma curva exponencial a uma certa taxa. Foi uma espécie de consenso. Mas as tendências que permitiram esse consenso estão chegando ao fim, e isso significa que estamos começando a ver um novo foco na eficiência da engenharia de software. Estou animado com isso porque ainda sou um engenheiro de software no coração e, até recentemente, era muito difícil argumentar para escrever um código mais eficiente porque a duplicação da capacidade do computador significava que não era necessário. Você acabou de esperar dois anos e seu código rodou duas vezes mais rápido.

Alguma outra mudança?

Estou vendo um foco cada vez maior nas comunicações, tornando mais fácil para os computadores interagirem com o mundo real. Não há mais tanta empolgação em fazer muita e muita matemática muito rápido em um computador isolado, e vemos isso no lado educacional do nosso negócio.

Quando construímos o primeiro Raspberry Pi, eu não queria colocar pinos de entrada-saída nele, porque pensei que as crianças estariam interessadas em usá-los para escrever programas. Claro, o que as crianças realmente amam fazer com Raspberry Pi é interagir com o mundo real, construir estações meteorológicas e controladores de robôs e coisas assim. E talvez isso fosse um prenúncio do que estava por vir, ou as crianças estavam mais sintonizadas com o espírito do que nós. Os tipos de coisas em que eles estavam interessados ​​na época são as coisas em que todos estamos interessados ​​agora, que é descobrir quais problemas os computadores podem resolver para você. E agora que a era dos retornos grátis está chegando ao fim, acho que podemos ampliar um pouco essa questão.


Conteúdo

O desenvolvimento do barramento CAN começou em 1983 na Robert Bosch GmbH. [1] O protocolo foi lançado oficialmente em 1986 na conferência da Society of Automotive Engineers (SAE) em Detroit, Michigan. Os primeiros chips controladores CAN foram introduzidos pela Intel em 1987 e, pouco depois, pela Philips. [1] Lançado em 1991, o Mercedes-Benz W140 foi o primeiro veículo de produção a apresentar um sistema de fiação multiplex baseado em CAN. [2] [3]

A Bosch publicou várias versões da especificação CAN e a mais recente é a CAN 2.0 publicada em 1991. Esta especificação tem duas partes, a parte A é para o formato padrão com um identificador de 11 bits e a parte B é para o formato estendido com um identificador de 29 bits identificador. Um dispositivo CAN que usa identificadores de 11 bits é comumente chamado de CAN 2.0A e um dispositivo CAN que usa identificadores de 29 bits é comumente chamado de CAN 2.0B. Esses padrões estão disponíveis gratuitamente na Bosch, juntamente com outras especificações e documentos técnicos. [4]

Em 1993, a Organização Internacional de Padronização (ISO) lançou o padrão CAN ISO 11898, que foi posteriormente reestruturado em duas partes ISO 11898-1, que cobre a camada de enlace de dados, e ISO 11898-2, que cobre a camada física CAN para alta velocidade POSSO. O ISO 11898-3 foi lançado posteriormente e cobre a camada física do CAN para o CAN de baixa velocidade e tolerante a falhas. Os padrões da camada física ISO 11898-2 e ISO 11898-3 não fazem parte da especificação Bosch CAN 2.0. Esses padrões podem ser adquiridos da ISO.

A Bosch ainda está ativa na extensão dos padrões CAN. Em 2012, a Bosch lançou o CAN FD 1.0 ou CAN com taxa de dados flexível. Esta especificação usa um formato de quadro diferente que permite um comprimento de dados diferente, bem como alternar opcionalmente para uma taxa de bits mais rápida após a arbitragem ser decidida. O CAN FD é compatível com as redes CAN 2.0 existentes, portanto, novos dispositivos CAN FD podem coexistir na mesma rede com os dispositivos CAN existentes. [5]

O barramento CAN é um dos cinco protocolos usados ​​no diagnóstico de bordo (OBD) -II padrão de diagnóstico de veículo. O padrão OBD-II é obrigatório para todos os carros e caminhões leves vendidos nos Estados Unidos desde 1996. O padrão EOBD é obrigatório para todos os veículos a gasolina vendidos na União Europeia desde 2001 e todos os veículos a diesel desde 2004. [6]

  • Veículos de passageiros, caminhões, ônibus (veículos a gasolina e veículos elétricos)
  • Equipamento agrícola
  • Equipamento eletrônico para aviação e navegação
  • Automação industrial e controle mecânico
  • Elevadores, escadas rolantes
  • Automação predial
  • Instrumentos e equipamentos médicos / ferrovias
  • Navios e outras aplicações marítimas
  • Sistemas de controle de iluminação

Edição Automotiva

O automóvel moderno pode ter até 70 unidades de controle eletrônico (ECU) para vários subsistemas. [7] Normalmente, o maior processador é a unidade de controle do motor. Outros são usados ​​para direção autônoma, sistema de assistência ao motorista avançado (ADAS), transmissão, airbags, freio antitravamento / ABS, controle de cruzeiro, direção assistida elétrica, sistemas de áudio, vidros elétricos, portas, ajuste de espelho, bateria e sistemas de recarga para híbrido / elétrico carros, etc. Alguns destes formam subsistemas independentes, mas as comunicações entre outros são essenciais. Um subsistema pode precisar controlar atuadores ou receber feedback de sensores. O padrão CAN foi criado para atender a essa necessidade. Uma das principais vantagens é que a interconexão entre diferentes sistemas de veículos pode permitir que uma ampla gama de recursos de segurança, economia e conveniência sejam implementados usando apenas software - funcionalidade que aumentaria o custo e a complexidade se tais recursos fossem "conectados" usando eletricidade automotiva tradicional. Exemplos incluem:

    : Várias entradas de sensor ao redor do veículo (sensores de velocidade, ângulo de direção, ar condicionado ligado / desligado, temperatura do motor) são comparadas através do barramento CAN para determinar se o motor pode ser desligado quando parado para melhor economia de combustível e emissões. : A funcionalidade "hill hold" recebe informações do sensor de inclinação do veículo (também usado pelo alarme contra roubo) e dos sensores de velocidade da estrada (também usados ​​pelo ABS, controle do motor e controle de tração) por meio do ônibus CAN para determinar se o veículo está parou em uma inclinação.Da mesma forma, as informações dos sensores dos cintos de segurança (parte dos controles do airbag) são alimentadas pelo CAN bus para determinar se os cintos de segurança estão apertados, de modo que o freio de estacionamento seja liberado automaticamente ao se mover. sistemas: quando o motorista engata a marcha à ré, a unidade de controle da transmissão pode enviar um sinal por meio do barramento CAN para ativar o sistema do sensor de estacionamento e o módulo de controle da porta para que o espelho retrovisor do lado do passageiro se incline para baixo para mostrar a posição do meio-fio. O barramento CAN também recebe informações do sensor de chuva para acionar o limpador do pára-brisa traseiro ao fazer marcha-atrás.
  • Sistemas de assistência automática na faixa / prevenção de colisão: as entradas dos sensores de estacionamento também são usadas pelo barramento CAN para alimentar dados externos de proximidade para sistemas de assistência ao motorista, como aviso de saída de faixa e, mais recentemente, esses sinais viajam através do barramento CAN para acionar o freio por fio em sistemas anti-colisão ativos.
  • Limpeza automática do freio: a entrada é obtida do sensor de chuva (usado principalmente para os limpadores de pára-brisa automáticos) por meio do barramento CAN para o módulo ABS para iniciar uma aplicação imperceptível dos freios durante a condução para limpar a umidade dos rotores do freio. Alguns modelos Audi e BMW de alto desempenho incorporam esse recurso.
  • Os sensores podem ser colocados no local mais adequado e seus dados usados ​​por várias ECUs. Por exemplo, os sensores de temperatura externa (tradicionalmente colocados na frente) podem ser colocados nos espelhos externos, evitando o aquecimento do motor, e os dados usados ​​pelo motor, o controle de temperatura e o monitor do motorista.

Nos últimos anos, o padrão de barramento LIN foi introduzido para complementar o CAN para subsistemas não críticos, como ar-condicionado e infoentretenimento, onde a velocidade e a confiabilidade da transmissão de dados são menos críticas.

Outra edição

  • O protocolo CAN bus tem sido usado no sistema de câmbio eletrônico Shimano DI2 para bicicletas de estrada desde 2009, e também é usado pelos sistemas Ansmann e BionX em seu motor de acionamento direto.
  • O barramento CAN também é usado como um barramento de campo em ambientes de automação geral, principalmente devido ao baixo custo de alguns controladores e processadores CAN.
  • Os fabricantes, incluindo a NISMO, pretendem usar os dados do barramento CAN para recriar voltas de corrida da vida real no videogame Gran Turismo 6 usando a função de registro de dados do GPS do jogo, que permitiria aos jogadores correr contra voltas reais. O Limbo Protético Modular (MPL) do Laboratório de Física Aplicada [8] usa um barramento CAN local para facilitar a comunicação entre servos e microcontroladores no braço protético.
  • As equipes da FIRST Robotics Competition usam amplamente o barramento CAN para se comunicar entre o roboRIO e outros módulos de controle do robô.
  • A linha de teleprompter CueScript usa protocolo de barramento CAN por cabo coaxial, para conectar seu CSSC - Desktop Scroll Control à unidade principal
  • O protocolo de barramento CAN é amplamente implementado devido à sua tolerância a falhas em ambientes eletricamente ruidosos, como sistemas de feedback de sensores de ferrovias modelo pelos principais fabricantes de sistemas de controle de comando digital e vários projetos de controle de ferrovias de modelos digitais de código aberto.

Organização física Editar

CAN é um padrão de barramento serial multimestre para conectar Unidades de Controle Eletrônico (ECUs) também conhecidas como nós. (Eletrônica automotiva é um domínio de aplicação principal.) Dois ou mais nós são necessários na rede CAN para se comunicarem. Um nó pode fazer interface com dispositivos de lógica digital simples, por exemplo, PLD, via FPGA até um computador embarcado executando um amplo software. Tal computador também pode ser um gateway permitindo que um computador de uso geral (como um laptop) se comunique através de uma porta USB ou Ethernet com os dispositivos em uma rede CAN.

Todos os nós estão conectados uns aos outros por meio de um sistema fisicamente convencional ônibus de dois fios. Os fios são um par trançado com uma impedância característica de 120 Ω (nominal).

Este barramento usa sinais E com fio diferenciais. Dois sinais, CAN alto (CANH) e CAN baixo (CANL) são direcionados para um estado "dominante" com CANH & gt CANL, ou não direcionados e puxados por resistores passivos para um estado "recessivo" com CANH ≤ CANL. Um bit de dados 0 codifica um estado dominante, enquanto um bit de dados 1 codifica um estado recessivo, suportando uma convenção Wired-AND, que dá aos nós com menor prioridade de números de ID no barramento.

ISO 11898-2, também chamado de CAN de alta velocidade (velocidades de bits de até 1 Mbit / s em CAN, 5 Mbit / s em CAN-FD), usa um barramento linear terminado em cada extremidade com resistores de 120 Ω.

A sinalização CAN de alta velocidade conduz o fio CANH para 3,5 V e o fio CANL para 1,5 V quando qualquer dispositivo está transmitindo um dominante (0), enquanto se nenhum dispositivo estiver transmitindo um dominante, os resistores de terminação retornam passivamente os dois fios para o recessivo (1) estado com uma tensão diferencial nominal de 0 V. (Os receptores consideram qualquer tensão diferencial inferior a 0,5 V como recessiva.) A tensão diferencial dominante é 2 V. nominal. A tensão de modo comum dominante (CANH + CANL) / 2 deve estar dentro de 1,5 a 3,5 V do comum, enquanto a tensão de modo comum recessivo deve estar dentro de ± 12 do comum.

ISO 11898-3, também chamado de CAN de baixa velocidade ou tolerante a falhas (até 125 kbit / s), usa um barramento linear, barramento estelar ou vários barramentos estelares conectados por um barramento linear e é terminado em cada nó por uma fração da resistência de terminação geral . A resistência de terminação geral deve ser próxima, mas não inferior a, 100 Ω.

A sinalização CAN tolerante a falhas de baixa velocidade opera de maneira semelhante à CAN de alta velocidade, mas com maiores oscilações de tensão. O estado dominante é transmitido conduzindo CANH em direção à tensão de alimentação do dispositivo (5 V ou 3,3 V), e CANL em direção a 0 V ao transmitir um dominante (0), enquanto os resistores de terminação puxam o barramento para um estado recessivo com CANH em 0 V e CANL em 5 V. Isso permite um receptor mais simples que considera apenas o sinal de CANH-CANL. Ambos os fios devem ser capazes de lidar com −27 a +40 V sem danos.

Editar propriedades elétricas

Com CAN de alta e baixa velocidade, a velocidade da transição é mais rápida quando ocorre uma transição recessiva para dominante, uma vez que os fios do CAN estão sendo ativamente acionados. A velocidade da transição dominante para recessiva depende principalmente do comprimento da rede CAN e da capacitância do fio usado.

O CAN de alta velocidade é geralmente usado em aplicações automotivas e industriais, onde o ônibus vai de um extremo ao outro do ambiente. O CAN tolerante a falhas é frequentemente usado onde grupos de nós precisam ser conectados entre si.

As especificações exigem que o barramento seja mantido dentro de uma tensão de barramento de modo comum mínima e máxima, mas não definem como manter o barramento dentro dessa faixa.

O barramento CAN deve ser encerrado. Os resistores de terminação são necessários para suprimir reflexos, bem como retornar o barramento ao seu estado recessivo ou ocioso.

O CAN de alta velocidade usa um resistor de 120 Ω em cada extremidade de um barramento linear. O CAN de baixa velocidade usa resistores em cada nó. Outros tipos de terminações podem ser usados, como o Circuito de polarização de terminação definido na ISO11783. [9]

Um circuito polarizado de terminação fornece energia e aterramento, além da sinalização CAN em um cabo de quatro fios. Isso fornece polarização elétrica automática e terminação em cada extremidade de cada segmento de barramento. Uma rede ISO11783 é projetada para hot plug-in e remoção de segmentos de barramento e ECUs.

Editar nós

    , microprocessador ou processador host
    • O processador host decide o que significam as mensagens recebidas e quais mensagens deseja transmitir.
    • Sensores, atuadores e dispositivos de controle podem ser conectados ao processador host.
    • Recebendo: o controlador CAN armazena os bits seriais recebidos do barramento até que uma mensagem inteira esteja disponível, que pode então ser buscada pelo processador host (geralmente pelo controlador CAN acionando uma interrupção).
    • Envio: o processador host envia a (s) mensagem (ns) de transmissão para um controlador CAN, que transmite os bits serialmente para o barramento quando o barramento está livre.
    • Recebendo: converte o fluxo de dados dos níveis CANbus para níveis que o controlador CAN usa. Geralmente possui circuitos de proteção para proteger o controlador CAN.
    • Transmitindo: converte o fluxo de dados do controlador CAN para níveis CANbus.

    Cada nó pode enviar e receber mensagens, mas não simultaneamente. Uma mensagem ou quadro consiste principalmente no ID (identificador), que representa a prioridade da mensagem, e em até oito bytes de dados. Um CRC, reconhecimento de slot [ACK] e outros overheads também fazem parte da mensagem. O CAN FD aprimorado estende o comprimento da seção de dados para até 64 bytes por quadro. A mensagem é transmitida em série no barramento usando um formato de não retorno a zero (NRZ) e pode ser recebida por todos os nós.

    Os dispositivos conectados por uma rede CAN são normalmente sensores, atuadores e outros dispositivos de controle. Esses dispositivos são conectados ao barramento por meio de um processador host, um controlador CAN e um transceptor CAN.

    A transmissão de dados CAN usa um método de arbitragem bit a bit sem perdas de resolução de contenção. Este método de arbitragem requer que todos os nós na rede CAN sejam sincronizados para amostrar cada bit na rede CAN ao mesmo tempo. É por isso que algumas chamadas PODEM síncronas. Infelizmente, o termo síncrono é impreciso, uma vez que os dados são transmitidos em um formato assíncrono, ou seja, sem um sinal de clock.

    As especificações CAN usam os termos bits "dominantes" e bits "recessivos", onde dominante é um 0 lógico (acionado ativamente para uma tensão pelo transmissor) e recessivo é um lógico 1 (retornado passivamente a uma tensão por um resistor). O estado ocioso é representado pelo nível recessivo (Lógico 1). Se um nó transmitir um bit dominante e outro nó transmitir um bit recessivo, haverá uma colisão e o bit dominante "ganhará". Isso significa que não há atraso para a mensagem de prioridade mais alta e o nó que está transmitindo a mensagem de prioridade mais baixa tenta retransmitir automaticamente os relógios de seis bits após o final da mensagem dominante. Isso torna o CAN muito adequado como um sistema de comunicação priorizado em tempo real.

    As tensões exatas para um 0 ou 1 lógico dependem da camada física usada, mas o princípio básico do CAN exige que cada nó ouça os dados na rede CAN, incluindo o (s) próprio (s) nó (s) transmissor (es). Se um 1 lógico é transmitido por todos os nós transmissores ao mesmo tempo, então um 1 lógico é visto por todos os nós, incluindo o (s) nó (s) transmissor (es) e o (s) nó (s) receptor (es). Se um 0 lógico é transmitido por todos os nós transmissores ao mesmo tempo, então um 0 lógico é visto por todos os nós. Se um 0 lógico está sendo transmitido por um ou mais nós, e um lógico 1 está sendo transmitido por um ou mais nós, então um 0 lógico é visto por todos os nós, incluindo o (s) nó (s) que transmitem o 1 lógico. um 1 lógico, mas vê um 0 lógico, ele percebe que há uma contenção e para de transmitir. Ao usar este processo, qualquer nó que transmite um 1 lógico quando outro nó transmite um 0 lógico "sai" ou perde a arbitragem. Um nó que perde a arbitragem enfileira novamente sua mensagem para transmissão posterior e o fluxo de bits do quadro CAN continua sem erro até que apenas um nó fique transmitindo. Isso significa que o nó que transmite o primeiro 1 perde a arbitragem. Uma vez que o identificador de 11 (ou 29 para CAN 2.0B) bit é transmitido por todos os nós no início do quadro CAN, o nó com o identificador mais baixo transmite mais zeros no início do quadro, e esse é o nó que ganha o arbitragem ou tem a prioridade mais alta.

    Por exemplo, considere uma rede CAN ID de 11 bits, com dois nós com IDs de 15 (representação binária, 00000001111) e 16 (representação binária, 00000010000). Se esses dois nós transmitirem ao mesmo tempo, cada um transmitirá primeiro o bit de início e, em seguida, transmitirá os primeiros seis zeros de seu ID sem que seja tomada uma decisão de arbitragem.

    Começar
    Pedaço
    Bits de identificação O resto do quadro
    10 9 8 7 6 5 4 3 2 1 0
    Nó 15 0 0 0 0 0 0 0 0 1 1 1 1
    Nó 16 0 0 0 0 0 0 0 1 Transmissão interrompida
    Dados CAN 0 0 0 0 0 0 0 0 1 1 1 1

    Quando o 7º bit de ID é transmitido, o nó com o ID de 16 transmite um 1 (recessivo) para seu ID, e o nó com o ID de 15 transmite um 0 (dominante) para seu ID. Quando isso acontece, o nó com o ID 16 sabe que transmitiu 1, mas vê 0 e percebe que há uma colisão e ele perdeu a arbitragem. O nó 16 para de transmitir, o que permite que o nó com ID 15 continue sua transmissão sem qualquer perda de dados. O nó com o ID mais baixo sempre vencerá a arbitragem e, portanto, tem a prioridade mais alta.

    Taxas de bits de até 1 Mbit / s são possíveis em comprimentos de rede abaixo de 40 m. Diminuir a taxa de bits permite distâncias de rede maiores (por exemplo, 500 m a 125 kbit / s). O padrão CAN FD aprimorado permite aumentar a taxa de bits após a arbitragem e pode aumentar a velocidade da seção de dados por um fator de até dez ou mais da taxa de bits de arbitragem.

    Os IDs de mensagem devem ser únicos [10] em um único barramento CAN, caso contrário, dois nós continuariam a transmissão além do final do campo de arbitragem (ID) causando um erro.

    No início da década de 1990, a escolha de IDs para mensagens era feita simplesmente com base na identificação do tipo de dados e do nó de envio. No entanto, como o ID também é usado como prioridade da mensagem, isso levava a um desempenho ruim em tempo real. Nesses cenários, um baixo uso do barramento CAN, em torno de 30%, era normalmente necessário para garantir que todas as mensagens cumpririam seus prazos. No entanto, se os IDs forem determinados com base no prazo da mensagem, quanto menor o ID numérico e, portanto, maior a prioridade da mensagem, o uso do barramento de 70 a 80% pode ser alcançado antes que os prazos das mensagens sejam perdidos. [11]

    Todos os nós da rede CAN devem operar na mesma taxa de bits nominal, mas ruído, mudanças de fase, tolerância do oscilador e deriva do oscilador significam que a taxa de bits real pode não ser a taxa de bits nominal. [12] Uma vez que um sinal de clock separado não é usado, um meio de sincronizar os nós é necessário. A sincronização é importante durante a arbitragem, pois os nós na arbitragem devem ser capazes de ver seus dados transmitidos e os dados transmitidos pelos outros nós ao mesmo tempo. A sincronização também é importante para garantir que as variações no tempo do oscilador entre os nós não causem erros.

    A sincronização começa com uma sincronização rígida na primeira transição recessiva para dominante após um período de ociosidade do barramento (o bit de início). A ressincronização ocorre em cada transição recessiva para dominante durante o quadro. O controlador CAN espera que a transição ocorra em um múltiplo do tempo de bit nominal. Se a transição não ocorrer no momento exato em que o controlador espera, o controlador ajustará o tempo de bit nominal de acordo.

    O ajuste é realizado dividindo cada bit em um número de fatias de tempo chamadas quanta, e atribuindo algum número de quanta a cada um dos quatro segmentos dentro do bit: sincronização, propagação, segmento de fase 1 e segmento de fase 2.

    O número de quanta em que o bit é dividido pode variar de acordo com o controlador, e o número de quanta atribuído a cada segmento pode variar dependendo da taxa de bits e das condições da rede.

    Uma transição que ocorre antes ou depois do esperado faz com que o controlador calcule a diferença de tempo e alongue o segmento de fase 1 ou encurte o segmento de fase 2 neste momento. Isso ajusta efetivamente o tempo do receptor ao transmissor para sincronizá-los. Este processo de ressincronização é feito continuamente em cada transição recessiva para dominante para garantir que o transmissor e o receptor permaneçam sincronizados. A ressincronização contínua reduz os erros induzidos pelo ruído e permite que um nó receptor que foi sincronizado com um nó que perdeu a arbitragem seja ressincronizado com o nó que ganhou a arbitragem.

    O protocolo CAN, como muitos protocolos de rede, pode ser decomposto nas seguintes camadas de abstração:

    A maior parte do padrão CAN se aplica à camada de transferência. A camada de transferência recebe mensagens da camada física e as transmite para a camada de objeto. A camada de transferência é responsável pela temporização e sincronização de bits, enquadramento de mensagens, arbitragem, confirmação, detecção e sinalização de erros e confinamento de falhas. Ele realiza:

    • Fault Confinement
    • Detecção de erro
    • Validação de Mensagem
    • Reconhecimento
    • Arbitragem
    • Message Framing
    • Taxa de transferência e tempo
    • Roteamento de Informação

    O barramento CAN (ISO 11898-1: 2003) especificava originalmente o protocolo da camada de enlace com apenas requisitos abstratos para a camada física, por exemplo, afirmando o uso de um meio com acesso múltiplo no nível de bit por meio do uso de estados dominante e recessivo. Os aspectos elétricos da camada física (tensão, corrente, número de condutores) foram especificados na ISO 11898-2: 2003, que agora é amplamente aceita. No entanto, os aspectos mecânicos da camada física (tipo e número do conector, cores, rótulos, pinagens) ainda não foram especificados formalmente. Como resultado, uma ECU automotiva normalmente terá um conector específico - geralmente personalizado - com vários tipos de cabos, dos quais dois são as linhas de barramento CAN. No entanto, surgiram vários padrões de facto para implementação mecânica, sendo o mais comum o conector macho do tipo D-sub de 9 pinos com a seguinte pinagem:

    • pino 2: CAN-Low (CAN−)
    • pino 3: GND (terra)
    • pino 7: CAN-Alto (CAN +)
    • pino 9: CAN V + (alimentação)

    Esse de fato O padrão mecânico para CAN pode ser implementado com o nó tendo conectores D-sub de 9 pinos machos e fêmeas conectados eletricamente um ao outro em paralelo dentro do nó. A energia do barramento é fornecida ao conector macho de um nó e o barramento retira energia do conector fêmea do nó. Isso segue a convenção de engenharia elétrica de que as fontes de alimentação são terminadas em conectores fêmea. A adoção desse padrão evita a necessidade de fabricar divisores personalizados para conectar dois conjuntos de fios de barramento a um único conector D em cada nó. Esses chicotes de fios (divisores) não padronizados (personalizados) que unem condutores fora do nó reduzem a confiabilidade do barramento, eliminam a intercambialidade de cabos, reduzem a compatibilidade dos chicotes de fiação e aumentam os custos.

    A ausência de uma especificação completa da camada física (mecânica além da elétrica) liberou a especificação do barramento CAN das restrições e da complexidade da implementação física. No entanto, deixou as implementações do barramento CAN abertas a problemas de interoperabilidade devido à incompatibilidade mecânica. Para melhorar a interoperabilidade, muitos fabricantes de veículos geraram especificações que descrevem um conjunto de transceptores CAN permitidos em combinação com os requisitos da capacitância parasita na linha. A capacitância parasita permitida inclui ambos os capacitores, bem como a proteção ESD (ESD [13] contra ISO 7637-3). Além da capacitância parasita, os sistemas de 12 V e 24 V não têm os mesmos requisitos em termos de tensão máxima da linha. De fato, durante eventos de jump start, as linhas de veículos leves podem ir até 24V, enquanto os sistemas de caminhões podem ir até 36V. Novas soluções estão surgindo no mercado permitindo a utilização do mesmo componente tanto para CAN quanto para CAN FD (ver [14]).

    A imunidade ao ruído na ISO 11898-2: 2003 é obtida mantendo a impedância diferencial do barramento em um nível baixo com resistores de baixo valor (120 ohms) em cada extremidade do barramento. No entanto, quando dormente, um barramento de baixa impedância como o CAN consome mais corrente (e energia) do que outros barramentos de sinalização baseados em tensão.Em sistemas de barramento CAN, a operação de linha balanceada, em que a corrente em uma linha de sinal é exatamente balanceada pela corrente na direção oposta no outro sinal, fornece uma referência 0 V independente e estável para os receptores. A melhor prática determina que os sinais de par balanceado do barramento CAN sejam transportados em fios de par trançado em um cabo blindado para minimizar a emissão de RF e reduzir a suscetibilidade à interferência no ambiente já ruidoso de RF de um automóvel.

    ISO 11898-2 fornece alguma imunidade à tensão de modo comum entre o transmissor e o receptor por ter um trilho de 0 V ao longo do barramento para manter um alto grau de associação de tensão entre os nós. Além disso, na configuração mecânica de fato mencionada acima, um trilho de alimentação é incluído para distribuir a energia para cada um dos nós do transceptor. O design fornece uma fonte comum para todos os transceptores. A tensão real a ser aplicada pelo barramento e quais nós se aplicam a ela são específicos da aplicação e não são formalmente especificados. O projeto de nó de prática comum fornece a cada nó transceptores que são opticamente isolados de seu host de nó e derivam uma tensão de alimentação regulada linearmente de 5 V para os transceptores do trilho de alimentação universal fornecido pelo barramento. Isso geralmente permite margem operacional no trilho de abastecimento suficiente para permitir a interoperabilidade entre muitos tipos de nós. Os valores típicos da tensão de alimentação nessas redes são de 7 a 30 V. No entanto, a falta de um padrão formal significa que os projetistas do sistema são responsáveis ​​pela compatibilidade do trilho de alimentação.

    A ISO 11898-2 descreve a implementação elétrica formada a partir de uma configuração de linha balanceada de terminação única multiponto com terminação de resistor em cada extremidade do barramento. Nesta configuração, um estado dominante é afirmado por um ou mais transmissores ativando o CAN− para fornecer 0 V e (simultaneamente) alternando o CAN + para a tensão do barramento de +5 V, formando assim um caminho de corrente através dos resistores que terminam o barramento. Como tal, os resistores de terminação formam um componente essencial do sistema de sinalização e são incluídos não apenas para limitar a reflexão da onda em alta frequência.

    Durante um estado recessivo, as linhas de sinal e o (s) resistor (es) permanecem em um estado de alta impedância em relação a ambos os trilhos. As tensões em CAN + e CAN− tendem (fracamente) para uma tensão intermediária entre os trilhos. Um estado recessivo está presente no barramento apenas quando nenhum dos transmissores no barramento está declarando um estado dominante.

    Durante um estado dominante, as linhas de sinal e o (s) resistor (es) se movem para um estado de baixa impedância em relação aos trilhos, de modo que a corrente flui através do resistor. A tensão CAN + tende a +5 V e CAN− tende a 0 V.

    Independentemente do estado do sinal, as linhas de sinal estão sempre em estado de baixa impedância em relação umas às outras em virtude dos resistores de terminação no final do barramento.

    Esta estratégia de sinalização difere significativamente de outras tecnologias de transmissão de linha balanceada, como RS-422/3, RS-485, etc., que empregam drivers / receptores de linha diferencial e usam um sistema de sinalização com base na tensão de modo diferencial da linha balanceada cruzando um nocional 0 V. O acesso múltiplo em tais sistemas normalmente depende da mídia que suporta três estados (ativo alto, ativo baixo e tri-estado inativo) e é tratado no domínio do tempo. O acesso múltiplo no barramento CAN é alcançado pela lógica elétrica do sistema que suporta apenas dois estados que são conceitualmente análogos a uma rede 'com fio E'.

    Uma rede CAN pode ser configurada para trabalhar com dois formatos diferentes de mensagem (ou "quadro"): o formato de quadro padrão ou base (descrito em CAN 2.0 A e CAN 2.0 B) e o formato de quadro estendido (descrito apenas por CAN 2.0 B ) A única diferença entre os dois formatos é que o "quadro base CAN" suporta um comprimento de 11 bits para o identificador, e o "quadro estendido CAN" suporta um comprimento de 29 bits para o identificador, composto pelo identificador de 11 bits ("identificador de base") e uma extensão de 18 bits ("extensão de identificador"). A distinção entre o formato de quadro de base CAN e o formato de quadro estendido CAN é feita usando o bit IDE, que é transmitido como dominante no caso de um quadro de 11 bits e transmitido como recessivo no caso de um quadro de 29 bits. Os controladores CAN que suportam mensagens de formato de quadro estendido também podem enviar e receber mensagens no formato de quadro de base CAN. Todos os quadros começam com um bit de início de quadro (SOF) que denota o início da transmissão do quadro.

    • Quadro de dados: um quadro contendo dados do nó para transmissão
    • Frame remoto: um frame solicitando a transmissão de um identificador específico
    • Frame de erro: um frame transmitido por qualquer nó detectando um erro
    • Quadro de sobrecarga: um quadro para injetar um atraso entre os dados ou quadro remoto

    Editar quadro de dados

    O quadro de dados é o único quadro para transmissão de dados real. Existem dois formatos de mensagem:

    • Formato de quadro base: com 11 bits de identificador
    • Formato de quadro estendido: com 29 bits de identificador

    O padrão CAN requer que a implementação aceite o formato de quadro base e pode aceitar o formato de quadro estendido, mas deve tolerar o formato de quadro estendido.


    O amanhecer do controlador lógico programável (PLC)

    Controladores lógicos programáveis ​​(PLCs) foram mais uma evolução tecnológica do que um desenvolvimento radical. Um aspecto digno de nota sobre a origem foi que conceitos bastante semelhantes foram perseguidos por três empresas distintas - ao mesmo tempo, mas desconhecidas umas das outras.

    As três empresas eram Bedford Associates em Bedford, MA Struthers-Dunn Systems Division em Bettandorf, IA e General Motors Hydra-matic Division em Yipsilanti, MI.

    Bedford e Struthers-Dunn eram fornecedores de automação, enquanto a Hydra-matic produzia transmissões automotivas. A Hydra-matic tinha grande interesse em desenvolver um controlador industrial para melhorar as operações de produção. Para tanto, a Hydra-matic trabalhou e compartilhou informações com duas empresas de tecnologia da computação - Digital Equipment Corporation (DEC) e Information Instruments Incorporated (3-I).

    A DEC e a 3-I construíram unidades de protótipo para a Hydra-matic, de modo que, no geral, cinco empresas estiveram envolvidas, ao longo dos três caminhos distintos, no desenvolvimento de um controlador industrial de base digital e de fácil programação. Com cada um desses três caminhos, os conceitos de PLC, a construção do protótipo e os testes de amplificação e as avaliações de fábrica ocorreram no período de 1967 a 1971.

    O momento não foi aleatório. Avanços rápidos em eletrônica de estado sólido, computadores e tratamento de sinais digitais no início a meados dos anos 1960 forneceram a base de tecnologia para o PLC. O gráfico da Figura 1 fornece um exemplo vívido das mudanças profundas na eletrônica de estado sólido feitas nas características do circuito flip-flop simples.

    Qualquer revisão da história do PLC revela os profundos avanços feitos ao longo da década de 1960 & provavelmente a década mais dinâmica do século XX. Alguns exemplos de progresso nos & lsquo60s são listados para uma perspectiva histórica mais abrangente.

    • De placas de circuito impresso com transistores instáveis ​​de US $ 20 e terminais de fios enrolados a ICs e LSICs altamente confiáveis.
    • Controle numérico (N / C) & mdash entretanto os europeus e japoneses assumiram a liderança. A migração para CNCs começou no final dos anos & lsquo60.
    • Amps op transistorizados e computadores analógicos (a Analog Devices foi formada em 1964)
    • Os melhores SCRs e triacs melhoraram muito os acionamentos dos motores e o controle de movimento.
    • Terminais de exibição de vídeo desenvolvidos por Bell, MIT & amp GE. Sistemas CAD anteriores.
    • Lasers, robôs industriais e sistemas de identificação automática foram introduzidos.

    Outra linha de produtos da era 1960 que se relacionava com a eventual funcionalidade do PLC era chamada de Controladores de programa. Estes eram principalmente dispositivos de temporização e sequenciamento usados ​​para operação de sistemas simples ou como componentes em sistemas mais complexos. Esses aparelhos tinham mercado suficiente para atrair a atenção da imprensa especializada. A edição de setembro de 1970 de Instrumentos e sistemas de controle de amplificação A revista publicou uma pesquisa listando cerca de 60 desses dispositivos. Um segmento da listagem é mostrado na Figura 2.

    Embora os PLCs tenham inerentemente eliminado a necessidade de muitos desses dispositivos, é interessante que apenas cinco dos fornecedores listados desenvolveram uma linha de produtos de PLCs. (Algo semelhante a empresas de válvulas a vácuo que não produzem transistores). O segmento da Figura 2 mostra duas das empresas fornecedoras de PLCs - Industrial Solid State e Industrial Timer. A Honeywell também se tornou um fornecedor de PLC por meio de um acordo de marketing com o ISSC.

    Surgimento do Modicon

    Fundada em 1964 por Dick Morley e George Schwenk, a Bedford Associates era uma empresa de engenharia de sistemas de controle da Nova Inglaterra. Seus principais clientes eram os fabricantes de máquinas-ferramenta da Nova Inglaterra, que enfrentavam concorrência cada vez maior de fornecedores de máquinas-ferramenta europeus e japoneses, além de suas necessidades gerais de melhorar o desempenho da máquina-ferramenta e as opções N / C. Além disso, havia grande interesse entre os fabricantes de máquinas e seus clientes em aproveitar os benefícios que os novos minicomputadores poderiam fornecer para linhas de fabricação de alto rendimento.

    Depois de vários projetos de sistema de máquina-ferramenta utilizando controles de minicomputador, Morley ficou exasperado com a programação usual de 6 meses e a depuração necessária para inicializar os sistemas. Em 1967, ele começou a & ldquoImagineering & rdquo maneiras de construir uma unidade de controle semelhante a um computador que pudesse ser facilmente programada e reprogramada. A equipe de Bedford tinha bastante experiência em operações de fábrica e havia trabalhado em ambientes de fábrica inóspitos.

    De acordo com Morley, seus pensamentos se solidificaram no Dia de Ano Novo de 1968, enquanto se afastava dos efeitos da festa de Ano Novo da noite anterior. Na verdade, seu memorando de conceito de 12 páginas é datado de 1º de janeiro de 1968. O grupo Bedford tinha um protótipo instalado e funcionando em março e em abril a nova unidade - que eles apelidaram Estúpido--foi mostrado e descrito em uma demonstração na Landis Machine. A demonstração foi bem recebida e o novo controlador foi posteriormente mostrado para Bryant Grinders e vários outros clientes em potencial. Um resultado importante desses contatos e feedback dos fabricantes de máquinas foi a decisão de usar a lógica ladder para programação.

    Em maio de 2006, o gerente de vendas da Bedford & rsquos, Lee Rousseau, participou do Westinghouse Machine Tool Forum anual na Filadélfia. GM Hydra-matic & rsquos Bill Stone foi um palestrante e apresentou o conceito Hydra-matic Division & rsquos para um Controlador de máquina padrão, que incluiu as especificações de desempenho desejadas. O protótipo de controlador de fábrica da Bedford combinou bem com o conceito de controlador padrão idealizado por Stone & rsquos.

    Rosseau estava fora de si na platéia resmungando & ldquowe já tem um desses & rdquo e fez planos para visitar a fábrica Hydra-matic o mais rápido possível. A Bedford Associates tornou-se a sétima empresa de controles, atendendo às especificações do Controlador de Máquina Padrão. As visitas à área de Detroit revisaram completamente as percepções de mercado da Rosseau & rsquos e uma operação de fabricação separada foi proposta. Bedford Associates continuaria sendo um provedor de serviços de engenharia e a nova empresa de manufatura foi nomeada Modicon& mdashan acrônimo de MOdular DIgital CONtroller.

    Desenvolvimentos em Struthers-Dunn

    Como um importante fornecedor de relés, Struthers-Dunn (S-D) estava bem ciente dos problemas crônicos associados aos controles baseados em relés em operações de produção automotiva de alto volume. Junto com uma ampla gama de produtos de relé, S-D também desfrutou do prestígio de ter fornecido a muitos engenheiros e técnicos de sistemas de controle seu manual de bolso: Guia de engenharia de relé. O guia ensinou a lógica do relé e planejou as aplicações inteligentes do relé.

    A S-D estabeleceu uma Divisão de Sistemas em Bettendorf, Iowa, para desenvolver dispositivos lógicos de estado sólido e controles digitais. Em 1967, a Divisão contratou Pete Bartlett, um experiente EE que vinha desenvolvendo circuitos de matriz de diodo para o Eagle Signal. Bartlett começou a desenvolver um computador lógico industrial dedicado. Em 1968, ele entrou em contato com os engenheiros da Ingersoll para tratar de uma aplicação da linha de produção da Ford.

    Dois dos colegas de engenharia da Bartlett & rsquos o seguiram até a S-D Systems. A controladora da Eagle Signal & rsquos (Gulf + Western) iniciou uma ação legal de segredo comercial. Isso obrigou Bartlett & rsquos a um novo grupo de desenvolvimento até que o litígio fosse resolvido & mdashroughly um ano depois.

    Nesse ínterim, a Ingersoll recorreu à DEC para suprir suas necessidades de controlador de linha de produção. Após o atraso do litígio, o grupo Bartlett & rsquos retomou seu desenvolvimento de & ldquoIndustrial Logic Computer & rdquo. Eles foram capazes de construir uma unidade de protótipo e mdashnamed VIP - em tempo para exibição em 1970

    Mostra de máquinas-ferramenta. Em 1971, um VIP foi instalado para uma avaliação de local beta na Fábrica de Estamparia Ford Chicago Heights e operou por vários anos. As vendas do VIP começaram em 1972.

    Projeto de controlador de máquina padrão Hydra-matic da General Motors

    No final dos anos 1960, a GM & rsquos Hydra-matic Division em Ypsilanti, MI produzia mais de 2 milhões de transmissões por ano. Longas e complexas linhas de transferência foram usadas para usinar e montar peças.

    Uma dessas linhas, construída para converter peças fundidas brutas em caixas de transmissão acabadas, tinha 420 pés de comprimento, 58 estações de trabalho e 329 ferramentas de corte.

    O controle das linhas de transferência era feito por linhas correspondentes de gabinetes de controle (geralmente um gabinete para cada máquina), que abrigava relés, partidas de motor, temporizadores, sequenciadores e semelhantes. Lidar com a energia da linha de alta tensão, calor excessivo, arco voltaico, ruído e / m, junto com relé limitado e confiabilidade dos componentes muitas vezes resultavam em mau funcionamento dos componentes de controle. O tempo de inatividade em uma linha foi estimado em $ 1.600 / min ($ 96.000 por hora) e em 1965 dólares quando os carros novos foram vendidos por cerca de $ 5.000.

    Como a maioria da indústria automotiva, a GM investiu pesadamente em atualizações de máquinas e equipamentos para melhorar a qualidade e a produtividade. Para melhor monitoramento da produção e manuseio dos dados de fabricação, a Hydra-matic instalou três sistemas de minicomputador entre 1965 e 1969 e um quarto foi planejado. Dois deles eram IBM 1800. O primeiro monitorou 24 bancos de teste de dinamômetro e o segundo monitorou uma linha de montagem de caixa de transmissão.

    O terceiro mini era um Varian 620i usado para controlar uma máquina de montagem de embreagem dianteira. A eletrônica de interface necessária estava sendo desenvolvida pela Information Instruments, um empreiteiro Hydra-matic de longa data. John Dute, presidente do 3-I, trabalhou pessoalmente na interface e, em sua opinião, este projeto foi a primeira operação de montagem controlada por computador do mundo.

    Os sistemas de minicomputador operaram com sucesso e o gerenciamento Hydra-matic justificou os custos com reduções documentadas em rejeições, melhor solução de problemas, menos sucata e assim por diante. No entanto, os controles do painel de relé ao longo das linhas de transferência continuaram sendo um grande problema de manutenção. Os próprios relés consumiam energia e os contatos de calor gerados começaram a saltar e os curtos-circuitos dos componentes de controle criaram estragos. Toda a equipe da Hydra-matic, desde operadores e eletricistas de piso até a alta gerência, queria livrar seu mundo de painéis de relé.

    Vários engenheiros da Division & rsquos de vários grupos estavam trocando idéias e promovendo conceitos para um controlador de máquina pequeno e simples que substituiria os relés. As principais pessoas incluíram o Supervisor de Teste Ed O & rsquoConnell, o Engenheiro de Sistemas Jim Bevier e os Engenheiros de Controle Dave Emmett e Len Radianoff. Um projeto foi autorizado pelo Grupo de Controle de Processo, liderado por Ed Clark. Os interesses do controlador staff & rsquos foram compartilhados com John Dute da 3-I e o representante da DEC, John Dumser. Ambos ofereceram ideias e sugestões. Alegadamente, a equipe da GM se inclinou para a DEC - com sua estatura e histórico de minicomputador - como fornecedor preferencial do planejado controlador de máquina.

    Em março de & rsquo68, Jim Bevier preparou esboços e diagramas para uma estrutura de E / S para um controlador padrão. Em abril, Dave Emmitt sugeriu adquirir e aplicar o Controlador de Máquina Padrão especificado. A proposta foi endossada por Bill Stone, supervisor da divisão & rsquos Machine & amp Gear Development. Mais tarde, em maio, Stone apresentou um artigo descrevendo o conceito do controlador de máquina padrão e as especificações preliminares no Westinghouse Machine Tool Forum anual na Filadélfia.

    Os principais itens nas especificações do controlador de máquina padrão Hydra-matic & rsquos incluem o seguinte:

    • A unidade será de construção modular e operará em um ambiente de fábrica sujeito a altas tensões e vibrações nas proximidades. O isolamento embutido aceitaria sinais digitais de 120 vac e forneceria pelo menos dezesseis saídas de 4 ampères de 120 vac.
    • Usando componentes de estado sólido, ele teria 32 entradas expansíveis a 256 e 16 saídas expansíveis a 128. As informações ou programas armazenados não seriam alterados ou perdidos devido a uma falha de energia do sistema de até 12 horas.
    • Seria facilmente programado e reprogramado. Ele terá pelo menos 1K de memória expansível até 4K.
    • Ele seria capaz de lidar com oito funções de temporização simultâneas com uma faixa de temporização ajustável de 0,1 a 10 segundos.

    Um formulário final do & ldquoStandard Machine Controller & rdquo solicitado foi concluído no início de junho e entregue a quatro fornecedores - Allen-Bradley, DEC, 3-I e Century Detroit. Mais tarde, Cutler-Hammer, Cincinnati Milling Machine e Bedford Associates obtiveram cópias. Desse grupo de sete, apenas três - DEC, 3-I e Bedford Associates - entregaram controladores de protótipo para avaliação.

    Revisões de especificações, designs de placas e hardware, preparações de propostas, construção e testes levaram a maior parte de um ano. A primeira unidade entregue em junho de 1969 foi a DEC PDP-14 que foi instalada para controlar uma retificadora de engrenagens. Mais tarde, no verão, a 3-I entregou sua unidade designada PDQ-II. PDQ significava Dados do Programa O quantizer e a unidade 3-I foram instalados para controlar um segmento de uma máquina de montagem. O último a entrar foi a Bedford Associates & mdashnow, conhecida como Modicon. Entregue em novembro, sua unidade foi a Bedford & rsquos 84º projeto de 1969 e, portanto, recebeu a designação de 084. Como a unidade DEC, foi instalada para substituir um painel de relé que controla uma retificadora de engrenagens.

    Os protótipos de controladores tiveram um bom desempenho e o interesse foi se espalhando tanto dentro da General Motors quanto para fornecedores de automação e empresas de serviços de engenharia de manufatura.

    Sendo um fornecedor de protótipos e empreiteiro Hydra-matic, o presidente da 3-I John Dute tinha talvez a visão mais estratégica do potencial de mercado para os novos controladores. Dute percebeu que sua pequena empresa não tinha os recursos necessários para ser um concorrente sério e, por fim, Allen-Bradley (A-B) expressou interesse em fornecer o suporte necessário. A Allen-Bradley comprou 25% da 3-I, direitos de comercialização do controlador PDQ-II e uma opção de aquisição da 3-I. A-B exerceu sua opção e adquiriu o 3-I no final de 1969.

    Desempenho e publicidade

    De acordo com a administração da Hydra-matic, todas as três unidades de protótipo atenderam às especificações e permaneceram funcionando até 1970. Em maio, Bill Stone apresentou um artigo de acompanhamento no Westinghouse Machine Tool Forum de 1970, realizado em Pittsburgh. A apresentação do novo controlador foi baseada quase inteiramente na unidade DEC PDP-14, já que ela estava em operação há quase um ano.

    Os slides de Stone & rsquos mostraram que para cada 100 entradas da máquina, seus controles de relé tinham uma média de 26 falhas de controle por mês. O uso precoce do controlador reduziu as falhas em cerca de dois terços & mdash para uma projeção de 8 falhas por mês para cada 100 entradas da máquina.Em uma comparação das horas mensais de manutenção para reparos elétricos, os controles do relé da linha de transferência exigiam cerca de 26 horas por mês para cada 100 entradas da máquina. Com o controlador de máquina padrão, as horas de manutenção elétrica necessárias foram reduzidas à metade - até 13 horas por mês a cada 100 entradas da máquina.

    Nessa época, muitos engenheiros de manufatura automotiva e pessoas de gerenciamento estavam se familiarizando com o projeto do controlador padrão e rumores da indústria mdashby, bem como com várias apresentações de trabalhos técnicos. Os interesses eram especialmente altos entre empresas de engenharia de manufatura e fornecedores de automação. A GE e a Square D rapidamente fizeram acordos de marketing com a Modicon e a DEC, respectivamente. A Square D ganhou os direitos de comercializar o DEC PDP-14 e o Modicon rotulado como 084 como GE PC-45 Controller.

    Indicativo da atenção que o Standard Machine Controller estava ganhando na indústria automotiva, sete empresas reagiram com rapidez suficiente para expor os novos PLCs no 1970 Machine Tool Show. Isso ocorreu apenas alguns meses após a apresentação preliminar e preliminar do Fórum Bill Stone & rsquos

    Avaliações de locais beta de plantas hidra-máticas. Além disso, Struthers-Dunn Systems retomou seu projeto de pesquisa e desenvolvimento e exibiu uma unidade VIP no show. As empresas e produtos correspondentes exibidos incluem:

    EMPRESA PRODUTOS
    Allen-Bradley 3-I & rsquos PDQ-II
    DEZ PDP-14 e amp PDP-14L
    GE GE PC-45 (O84)
    Modicon O 084
    Quadrado D PDP-14 e amp PDP-14L
    Struthers-Dunn VIP-512
    Vickers PC-1000

    As avaliações de desempenho continuaram na fábrica Hydra-matic ao longo de 1970 e em 1971.

    Com a experiência operacional contínua, o Modicon 084 se tornou o controlador de escolha para engenheiros de fábrica e eletricistas. Em primeiro lugar, o Modicon foi programado em lógica ladder, enquanto os programas PDQ-II e PDP-14 foram escritos em booleano. Isso era bom para os engenheiros de computação, mas os engenheiros de fábrica e eletricistas médios entendiam a escada e se adaptaram facilmente ao 084. Outros construtores de PLC logo emularam o Modicon e ofereceram a lógica da escada.

    A programação do 084 era relativamente simples. O usuário conectou em uma unidade de programação, selecionou um módulo de software apropriado e digitou os diagramas ladder. A Modicon também estabeleceu um serviço telefônico para programação de usuários e suporte para solução de problemas. Em uma entrevista anterior baseada em um projeto de máquina-ferramenta de Bedford, Dick Morley afirmou que seu novo PLC reduziu o tempo de programação de 6 meses para 6 dias.

    Em contraste, para reprogramar o PDQ-II, um programa booleano foi escrito para perfurar uma fita de papel de um teletipo, usando uma interface de minicomputador. Um carregador especial foi usado para carregar o programa. O PDP-14 também exigia um programa booleano em fita perfurada e usava uma memória de placa de circuito de cabo de aço tecido. Um novo programa, fita e placa de memória foram enviados de volta à DEC para a mudança do programa & mdashwith cerca de uma semana de entrega.

    O PDQ-II e o PDP-14 foram substituídos em 1971. O 084 permaneceu em serviço por mais de 10 anos. O Hydra-matic eventualmente devolveu o 084 inicial para a Modicon e ele esteve em exibição no Smithsonian. Um 084 semelhante é mostrado na Figura 3 com várias das pautas originais do Modicon.

    Figura 3 - Pioneiros do PLC, da esquerda para a direita, Dick Morley, Tom Bossevain, George Schwenk e Jonas Landau


    Sobre o autor

    [Martin Malý] trabalha como consultor de tecnologia de mídia e líder de equipe de desenvolvedores para alguns jornais tchecos. Ele tem experiência em startups e fez muitos projetos web (por exemplo, foi um desenvolvedor líder, programador, administrador, gerente e ideólogo para um sistema de blog tcheco de ponta chamado Bloguje.cz).

    Seu maior hobby, além de programação, é microeletrônica e computadores antigos. Ele fez alguma programação de tarefas em motores ferroviários, com base em microcontroladores (família 8051, AVR, Microchip) e alguns gadgets, computadores etc. & # 8220homebrew & # 8221 CPUs.

    [Martin] é Evangelista e Professor de Novas Tecnologias da Web (OpenID, OAuth, computação em nuvem, HTML5, Node.js, Coffeescript e outras coisas), bem como Evangelista de desenvolvimento de HTML5 para dispositivos móveis.

    Ele escreve bastante - começando com alguns experimentos de texto juvenis, continuando por uma série de blogs e revistas online, e ele acabou como Editor-Chefe da zdrojak.cz & # 8211 uma revista online sobre tecnologias da web.


    Arquivos: Um Século de Eletricidade

    Os engenheiros elétricos - elétricos, eletrônicos e de computação - produziram as tecnologias mais dramáticas de nosso tempo. O mundo mudou por causa da habilidade e imaginação desses homens e mulheres.

    Energia elétrica, telefones, rádio, televisão e computadores são apenas alguns dos produtos da engenharia elétrica. E podemos esperar que o futuro seja tão empolgante e desafiador quanto o passado.

    Por mais maravilhosas e surpreendentes que sejam as tecnologias elétricas e eletrônicas, não devemos esquecer que todas são criações de pessoas, de homens e mulheres trabalhando juntos para aproveitar ao máximo seu conhecimento e treinamento. Os elétricos vêm de todos os países, origens, raças, religiões e grupos étnicos. Eles estão unidos por uma crença comum na importância de aprender sobre como o mundo - especialmente o mundo elétrico - funciona, e de aplicar esse aprendizado a propósitos úteis.

    Cem anos atrás, as primeiras pessoas que se autodenominam engenheiros elétricos se uniram para promover sua nova profissão. Os engenheiros civis - construtores de obras públicas - e os engenheiros mecânicos - projetistas de máquinas e motores - já tinham sociedades para promover seus objetivos comuns. Na década de 1880, era hora de os engenheiros elétricos se organizarem, pois suas tecnologias - o telégrafo, o telefone, a luz elétrica e os motores - estavam se tornando cada vez mais importantes à medida que se tornavam cada vez mais complexas.

    Os Elétricos, portanto, formaram o Instituto Americano de Engenheiros Elétricos - o AIEE - em 1884. Essa organização foi a precursora do atual Instituto de Engenheiros Elétricos e Eletrônicos - o IEEE. Em cem anos, as tecnologias e atividades dos engenheiros elétricos se tornaram mais diversificadas e complicadas do que os primeiros elétricos jamais poderiam imaginar, afetando todas as áreas de nossas vidas. Os laços comuns dos Elétricos ainda são fortes, no entanto, e hoje um quarto de milhão deles torna o IEEE a maior sociedade técnica do mundo.

    Cem anos atrás, os Elétricos representaram um novo estilo e uma nova direção para a tecnologia e a profissão de engenheiro. Seu século de crescimento e mudança conta uma história tão empolgante quanto as próprias tecnologias da engenharia elétrica e eletrônica. As páginas a seguir oferecem uma dica da história completa dos Elétricos - quem eles eram, de onde vieram, como funcionaram e que diferença fizeram no mundo. Esperamos que este vislumbre dessa herança estimule suas próprias explorações no mundo dos engenheiros elétricos. O Instituto Americano de Engenheiros Elétricos (AIEE) foi formado na primavera de 1884 para unir os envolvidos na "arte de produzir e utilizar eletricidade". A década de 1880 foi um período de rápida mudança na tecnologia elétrica e 1884 foi uma época particularmente boa para a formação da nova sociedade, pois naquele ano os americanos estavam sendo chamados a mostrar a todo o mundo as grandes contribuições que estavam fazendo para o a tecnologia mais empolgante da época.

    As exposições internacionais foram os meios mais espetaculares do século 19 para exibir as conquistas de uma civilização industrial em rápida expansão. Além de grandes exposições gerais, como o Crystal Palace de Londres de 1851 ou o Centennial da Filadélfia de 1876, mostras mais especializadas eram meios populares para divulgar o progresso de campos em rápida mutação - mais significativamente, eletricidade. Paris em 1881, Londres em 1882 e Viena em 1883 foram locais de exposições internacionais de eletricidade. Agora, em 1884, os americanos sentiam que era sua vez e pretendiam aproveitar ao máximo.

    O Franklin Institute da Filadélfia costumava ser o organizador desses esforços americanos, de modo que seu papel principal na organização e hospedagem da Exposição Elétrica Internacional de 1884 parecia bastante natural. Além das exposições de 196 expositores comerciais, a formação de uma biblioteca especial de eletricidade e magnetismo e uma exposição histórica que incluiu o primeiro instrumento e dispositivos telegráficos Morse que foram usados ​​por Benjamin Franklin, os eventos da Exposição incluíram a convocação de um "National Conference of Electricians: 'autorizada e financiada no valor de $ 7.500 pelo governo federal e a reunião anual da American Association for the Advancement of Science. Embora as altas tarifas de importação de produtos elétricos estrangeiros desencorajassem os expositores europeus, um sabor internacional foi ainda presentes Convites foram enviados aos membros da Associação Britânica para virem à Filadélfia após seu próprio encontro em Montreal, e William Thomson, o eminente físico e engenheiro elétrico britânico, foi escolhido como vice-presidente da Comissão Elétrica que organizou a Conferência Nacional.

    Tanto a Comissão como a Conferência eram, no entanto, compostas não por engenheiros elétricos, mas por físicos. Antes de 1884, apenas os físicos acadêmicos na América tinham o reconhecimento público e autoridade para falar sobre e para a nova tecnologia elétrica. Foi esse quadro de negócios que motivou um grupo de engenheiros elétricos com sede em Nova York a convocar, em abril de 1884, uma "sociedade elétrica nacional" para receber os "sábios, engenheiros e fabricantes elétricos" estrangeiros que eram esperados na Filadélfia. O Instituto Americano de Engenheiros Elétricos foi formalmente estabelecido em 13 de maio de 1884, e agendou sua primeira reunião técnica para 7 e 8 de outubro na Exposição Elétrica. Os esforços dos engenheiros para se organizar foram um sucesso absoluto. Foram eles que se tornaram os criadores e porta-vozes da nova tecnologia.

    A organização da profissão de engenheiro elétrico na América na década de 1880 não foi coincidência. Foi nessa década que a tecnologia elétrica finalmente emergiu dos limites de aplicações especializadas que tiveram pouco impacto direto na maioria das pessoas, para ser vista como uma força de mudança em todos os lugares. Isso ficou especialmente evidente na exposição da Filadélfia que deu impulso ao nascimento do AIEE em 1884.

    Por quase meio século, a aplicação da eletricidade significou telegrafia. É fácil agora esquecer que coisa maravilhosa o telégrafo era para as pessoas no século 19, tão rude e simples parece perto das maravilhas elétricas e eletrônicas de uma época posterior. É preciso relembrar o que significava introduzir a comunicação instantânea entre pontos distantes em uma sociedade que nunca conheceu algo parecido. Embora comum na década de 1880, o telégrafo ainda não havia perdido seu fascínio e era a única tecnologia elétrica conhecida ou compreendida por muitos na Filadélfia.

    A verdadeira empolgação, entretanto, vinha de novas invenções elétricas, algumas das quais haviam começado sua rápida disseminação em residências, lojas, fábricas e em todos os lugares onde as pessoas buscavam o maior conforto e produtividade prometidos pela tecnologia mais moderna. A luz elétrica era, claro, a mais visível delas. A luz de arco, com seu brilho ofuscante e insuperável, já estava disponível há cerca de uma década, mas na verdade ainda estava apenas começando a se espalhar para uso em locais públicos, como ruas, praças, grandes lojas e teatros. A lâmpada incandescente, caracterizada por seu brilho amarelo suave que parecia tão superior ao gás, tinha menos de 5 anos, embora os esforços de Thomas Edison e meia dúzia de rivais pressionassem a nova luz e o sistema de energia central que fez ele funciona, em serviço em todos os lugares.

    Logo após a luz elétrica foram as tentativas de inventores e empresários de encontrar outras aplicações para o sistema elétrico central. Pequenos dispositivos como máquinas de costura, bombas e guinchos já foram ligados com sucesso a motores elétricos para tornar o trabalho mais seguro, conveniente e produtivo. Uma infinidade de aplicativos semelhantes parecia estar ao virar da esquina, e a Filadélfia forneceu uma oportunidade maravilhosa para exibi-los. E no horizonte, vários inventores mostravam, havia maravilhas ainda maiores, como a aplicação da energia elétrica ao sempre difícil problema do transporte urbano.

    O presente parecia maravilhoso para engenheiros e cidadãos durante aqueles brilhantes dias de outono na Filadélfia, e o futuro era tão cheio de possibilidades que era difícil até mesmo conceber quais seriam. Seria preciso muita previsão para alguém reconhecer o significado de um pequeno item estranho exibido em um canto da maior exposição individual do salão, que pertencia a Thomas Edison. Lá, rotulado simplesmente como "aparato mostrando condutividade de correntes contínuas através de alto vácuo" estava a "Lâmpada incandescente tri-polar: 'de Edison exibindo o" Efeito Edison "- o prenúncio da eletrônica.

    Os organizadores da AIEE apelaram a um amplo público quando lançaram seu apelo para a nova sociedade na primavera de 1884: "Pessoas que estão interessadas em nossas questões elétricas, científicas, educacionais, de manufatura, telegráficas, telefônicas e afins, bem como os usuários de aparelhos elétricos em geral acharão vantajoso, pessoal e coletivamente, estabelecer, trabalhar e, de maneira geral, ajudar nossa sociedade proposta. "

    "Propõe-se", prosseguia a chamada, "fazer engenheiros elétricos, eletricistas, instrutores em escolas e faculdades, inventores e fabricantes de aparelhos elétricos, oficiais do telégrafo, telefone, luz elétrica, alarme contra roubo, mensageiro distrital, elétrico tempo, e de todas as empresas baseadas em invenções elétricas, bem como todos os que estão inclinados a apoiar a organização para o interesse comum, elegíveis para membros. ”

    Na maior parte, na década de 1880, isso significava telegrafistas e aqueles a eles associados. O telégrafo foi a manifestação primária da tecnologia elétrica no século 19, e mesmo aqueles cujas atividades se espalharam mais longe, como Thomas Edison, geralmente começaram na chave do telégrafo.

    Os telegrafistas tiveram destaque na lista de membros fundadores da AIEE, e a nova organização prestou homenagem à indústria ao eleger Norvin Green, chefe da Western Union Telegraph Company, seu primeiro presidente.

    Como hoje, um século atrás, a engenharia elétrica era uma tecnologia empolgante e em rápida mudança. A telegrafia já havia mostrado a importância da tecnologia elétrica para a sociedade e havia atraído muitos jovens ambiciosos para as fileiras de operadores e eletricistas. Foram as novas tecnologias de luz e poder, no entanto, que sugeriram a extensão das possibilidades para o futuro. Essas novas tecnologias exigiam novos conhecimentos e novas habilidades, e dessas necessidades surgiu o moderno engenheiro elétrico.

    Os telégrafos que foram tão proeminentes no estabelecimento da profissão de engenheiro elétrico eram em grande parte homens práticos, cujo treinamento fora na chave do telégrafo, na bancada de trabalho e nos jines e cabos que cruzavam o país e os mares. A escolaridade deles, onde existiu, muitas vezes foi em um campo muito distante de sua profissão. Isso não era adequado para o avanço das novas aplicações da eletricidade. A construção de dínamos, o projeto de centrais elétricas e sistemas de distribuição, a fabricação de lâmpadas, motores e uma série de dispositivos auxiliares exigiram uma compreensão mais profunda dos fundamentos da engenharia e da própria eletricidade. Os novos líderes da profissão de engenheiro elétrico seriam homens cuja experiência prática fosse aumentada pelo treinamento teórico e pela preocupação em estabelecer os princípios básicos de seu campo.

    À medida que a complexidade e a escala da nova tecnologia elétrica continuavam seu crescimento acelerado no final do século 19, o mesmo acontecia com a visibilidade e o impacto da eletricidade. Em nenhum lugar isso ficou mais evidente do que nas duas grandes, embora muito diferentes, vitrines da engenharia americana na década de 1890 - Chicago e Niágara.

    A Exposição Colombiana do Mundo em Chicago e a usina elétrica construída em Niagara Falls, Nova York, foram os grandes palcos para mostrar o quão longe a profissão de engenheiro elétrico havia progredido em uma curta década. Nesses palcos foram encenados não apenas os triunfos da tecnologia elétrica, mas também as controvérsias e lutas que acompanharam o crescimento explosivo.

    Tão grandiosa foi a Feira Mundial inaugurada em Chicago para comemorar o 400º aniversário da descoberta da América por Colombo que ninguém se importou que estava um ano atrasada. Foi a primeira feira onde a eletricidade ganhou um prédio próprio, mas o impacto da nova tecnologia se espalhou por toda a "Cidade Branca" que se erguia às margens do Lago Michigan. A iluminação, em particular, causou uma enorme impressão nos milhões de visitantes vindos de toda a América e de todo o mundo. As 8.000 lâmpadas de arco voltaico e 130.000 lâmpadas incandescentes que a Westinghouse Company instalou em todo o terreno representaram um triunfo técnico para um fabricante que muitos ainda consideram um novato no setor de luz elétrica e energia. Mais importante do que o tamanho do esforço, no entanto, foi que ele demonstrou a praticidade dos sistemas de corrente alternada, que a partir de então eclipsou rapidamente a tecnologia de corrente contínua de Edison e outros.

    Assim como na Filadélfia em 1884, a exposição de Chicago foi vista como um bom cenário para uma conferência elétrica. O Congresso Internacional de Eletricidade de Chicago resultante foi um testemunho do crescente prestígio da engenharia elétrica americana, pois este foi um encontro verdadeiramente internacional que fez grandes avanços no estabelecimento dos padrões mundiais para unidades elétricas fundamentais. Particularmente gratificante para os americanos foi a adoção do "henry" como a unidade internacional de indutância - uma proposta apresentada pela AIEE para homenagear um dos fundadores da ciência elétrica na América.

    As Cataratas do Niágara representaram uma vitrine de um tipo muito diferente. Aqui, os engenheiros elétricos foram confrontados com um dos grandes desafios técnicos da época - como aproveitar a enorme energia latente nas águas turbulentas do Niágara e torná-la disponível para trabalhos úteis. Anos de estudo e debates acalorados precederam o início da primeira Usina Elétrica das Cataratas do Niágara no verão de 1895, enquanto engenheiros e financistas discutiam se a eletricidade poderia ser usada para transmitir grandes quantidades de energia por 20 milhas até Buffalo e, em caso afirmativo, se deve ser corrente contínua ou alternada. O sucesso dos gigantescos geradores polifásicos de corrente alternada deixou claro os rumos que a tecnologia de energia elétrica tomaria no novo século, e a atração de novas indústrias que consumiam grandes quantidades de eletricidade, como o alumínio e outros fabricantes eletroquímicos, mostrou o vasto potencial para crescimento e mudança que a eletricidade reservou para o futuro.

    Os homens que decidiram estabelecer a engenharia elétrica como uma profissão respeitada sabiam que seu campo apresentava oportunidades e problemas especiais. As novas tecnologias nas quais eles eram mestres apresentavam desafios técnicos que precisavam ser enfrentados pela profissão para que o progresso não fosse impedido por estreitos interesses comerciais. Muitos engenheiros também reconheceram que a preocupação do público com o uso e a segurança da tecnologia elétrica refletia em sua profissão e em si mesmos. Finalmente, houve quem sentisse que as responsabilidades sociais de uma verdadeira profissão iam além de questões puramente técnicas, para incluir também questões éticas e políticas. Pôde-se perceber nessas primeiras décadas, portanto, a mesma variedade de questões e pontos de vista que caracterizariam a comunidade da engenharia elétrica no próximo século.

    Na época em que os engenheiros elétricos americanos assumiram o problema, a resolução de padrões técnicos e terminologia era uma responsabilidade amplamente reconhecida de uma profissão organizada de engenharia. O primeiro esforço sério da AIEE nesse sentido foi a nomeação de um comitê de "unidades e padrões" em junho de 1891. Logo depois, outro comitê foi formado para fazer recomendações para uma "mesa de fiação padrão" para orientar os engenheiros na especificação dos requisitos de fiação. A enorme importância da padronização rapidamente se tornou aparente na crescente indústria elétrica, onde a intensidade da competição gerou confusão e conflito nas especificações técnicas, padrões de teste e até mesmo na terminologia. Os engenheiros reconheceram a oportunidade de superar as considerações comerciais, estabelecendo-se como autoridades de padronização. A AIEE nomeou seu Comitê de Padronização permanente em março de 1898 e, a partir dessa época, em conjunto com outras sociedades de engenharia e grupos internacionais, os engenheiros estabeleceram os padrões para a tecnologia e prática elétrica.

    Até que ponto as responsabilidades dos engenheiros, como indivíduos ou como profissionais organizados, vão além das preocupações puramente técnicas, foi um assunto para debate desde os primeiros anos da AIEE. Os conflitos que surgem devido à posição do engenheiro como profissional e, freqüentemente, como funcionário sempre foram uma fonte de preocupação, talvez melhor ilustrada pela experiência de Charles Steinmetz.

    Steinmetz não era apenas um engenheiro brilhante, o criador de muitos dos métodos analíticos mais importantes para projetar e descrever dispositivos e sistemas de energia elétrica, mas também era um homem profundamente preocupado com o papel adequado do engenheiro profissional na sociedade. Como funcionário de uma empresa muito grande (General Electric). Steinmetz estava bem ciente dos problemas que o engenheiro corporativo enfrentava para definir suas lealdades e responsabilidades. Em 1907, o conflito sobre esses problemas impediu a AIEE de adotar um Código de Ética para seus associados. Quando, cinco anos depois, o Instituto resolveu tentar novamente desenvolver um Código aceitável. A voz de Steinmetz era influente, defendendo a obrigação do engenheiro de se comprometer com a melhor prática técnica possível e, ao mesmo tempo, reconhecer que sua lealdade final era para com seu cliente ou empregador. Acima de tudo, Steinmetz falou por sua crença de que os engenheiros "devem ser mais do que meras máquinas de engenharia", uma crença que ainda motiva muitos dos criadores da tecnologia elétrica moderna.

    O alvorecer do século atual viu o nascimento de várias tecnologias que seriam revolucionárias em seu impacto. O mais empolgante deles era o rádio, ou, como era geralmente chamado na época, "sem fio". Nenhuma outra tecnologia pareceria obliterar tão completamente as barreiras da distância na comunicação humana ou aproximar os indivíduos com tal imediatismo e espontaneidade. E raramente surgira uma atividade que parecia tão misteriosa e quase mágica para a maioria da população - separando seus praticantes como uma raça especial e privilegiada. O rádio era misterioso não apenas para o leigo, mas também para muitos engenheiros e indivíduos tecnicamente informados.

    O mistério residia em grande parte na aplicação de princípios e fenômenos pelo rádio apenas recentemente identificados por físicos e engenheiros que trabalhavam nas fronteiras de suas especialidades. A existência de ondas eletromagnéticas que viajavam como luz havia sido prevista pelo brilhante físico James Clerk Maxwell na década de 1860 e comprovada pelo jovem alemão Heinrich Hertz na década de 1880. O possível uso dessas ondas para comunicação através do espaço sem fios ocorreu a muitos. Os primeiros passos práticos para tornar o rádio útil são geralmente atribuídos a Oliver Lodge na Inglaterra, Guglielmo Marconi na Itália e Aleksandr Popov na Rússia. A transmissão de código Morse de Marconi através do Atlântico em 1901 mostrou ao mundo o enorme potencial do rádio para mudar todo o conceito de comunicação de longa distância. Os anos seguintes viram uma atividade febril em toda parte, enquanto os homens tentavam traduzir as realizações dos pioneiros nos alicerces de uma tecnologia prática.

    Em 1912, a tecnologia do rádio atraiu um pequeno número de indivíduos dedicados que identificaram seu próprio futuro com o progresso do campo escolhido. Alguns deles se organizaram em sociedades pequenas e localizadas, mas estava claro para muitos que uma visão mais ampla era necessária se os praticantes de rádio quisessem obter o reconhecimento e o respeito dos profissionais técnicos. Foi com essa visão em mente que representantes de duas dessas sociedades locais se reuniram na cidade de Nova York em maio de 1912, para formar o Institute of Radio Engineers. O IRE deveria ser uma sociedade internacional dedicada aos mais altos padrões profissionais e ao avanço da teoria e prática da tecnologia de rádio.

    A importância do rádio, no entanto, não reside apenas em sua expansão dos meios de comunicação humana à distância, mas também em sua exploração e expansão de novas capacidades científicas e técnicas, pois, com o passar do século, o rádio daria origem ao A tecnologia mais revolucionária de toda a eletrônica do século 20.

    O rádio era considerado uma tecnologia maravilhosa pela maioria das pessoas que entraram em contato com ele. Em seus primeiros anos, no entanto, ele tinha um fascínio especial pela geração mais jovem, que estava apenas começando a fazer as escolhas que determinariam suas carreiras e os veículos para suas ambição. Até que ponto o rádio era de fato uma tecnologia para os jovens se refletiu nos clubes de rádio que surgiram em cidades e vilas em todos os lugares, na literatura popular que foi publicada para atrair os jovens fãs de rádio e nos homens que deram o ímpeto ao a formação e crescimento do Instituto de Engenheiros de Rádio.

    Em 1912, ano da fundação do IRE, John V.L. Hogan tinha apenas 22 anos e já trabalhava com o inventor do rádio Reginald Fessenden há mais de dois anos. Alfred Goldsmith tinha 24 anos e já tinha a experiência de servir como consultor de rádio para o Departamento de Justiça dos EUA. Robert Marriott, o primeiro presidente do IRE, havia chegado ao maduro, 33 anos, e tinha mais de dez anos de experiência em rádio em seu currículo: e David Sarnoff, de apenas 21 anos, trabalhava para a American Marconi Company desde os 15 anos. Toda essa juventude estava muito dentro da breve tradição do rádio Afinal, o próprio Marconi tinha apenas 21 anos quando anunciou ao mundo em 1895 que poderia transmitir mensagens sem fio por quilômetros de campo aberto. Nem todos os líderes da profissão de rádio em seus primeiros anos eram tão jovens. John Stone Stone, um dos principais arquitetos do IRE, tinha 43 anos em 1912, e a presidência da organização geralmente era dada a um indivíduo mais velho em reconhecimento de sua idade e experiência. No entanto, o dinamismo da nova profissão claramente deveu muito à ambição juvenil de seus membros mais ativos.

    Para a maioria das pessoas nos primeiros anos do século 20, o rádio era uma nova invenção maravilhosa, mas sua utilidade e importância para o mundo dos negócios não eram claras. No momento em que os engenheiros de rádio estavam se organizando, no entanto, ocorreram dois eventos que demonstraram claramente como o mundo era indispensável para encontrar a nova tecnologia. Ao fazer isso, eles também forneceram um vislumbre do papel fundamental que a nova geração de engenheiros iria desempenhar no turbulento século que se seguiria. Um mês antes de os engenheiros de rádio em Nova York se reunirem para formar o IRE, um dos maiores desastres marítimos da história chamou a atenção para as novas capacidades que o rádio havia dado ao mundo, tanto para relatar eventos como eles aconteciam quanto para afetá-los. Na noite de 14 de abril de 1912, o navio Titanic da White Star, com mais de 2.200 a bordo, colidiu com um iceberg no Atlântico Norte e começou a afundar rapidamente. A operadora sem fio do navio enviou um pedido de socorro, que não foi recebido por alguns navios próximos porque seus aparelhos receptores não estavam em operação no momento, mas que outros navios captaram e retransmitiram para estações no continente americano. O salvamento de mais de 700 vidas foi atribuído ao trabalho das operadoras sem fio naquela noite. O mundo inteiro foi surpreendido pela atividade dos operadores do continente, que repassaram a notícia da tragédia e da sobrevivência. Poucos meses depois, os governos em todo o mundo começaram a ordenar a operação de rádio a bordo de navios de rádio marítima e seus engenheiros, portanto, tornaram-se indispensáveis ​​para o comércio mundial. Se a busca pela paz não bastasse para demonstrar o lugar-chave do rádio no mundo moderno, então o desenrolar da guerra traria a mensagem para casa com uma finalidade terrível. Quando os canhões de agosto começaram a soar em 1914, as potências europeias já haviam começado a fornecer aos seus exércitos e marinhas os mais avançados equipamentos de comunicação, pois a importância da sinalização sem fio que poderia ser instalada instantaneamente em qualquer lugar no campo ou no mar era óbvia. para cada estrategista. Aprender como usar a nova ferramenta da melhor maneira levou algum tempo, mas o papel fundamental a ser desempenhado pelos novos dispositivos e pelos homens que os fabricaram foi reconhecido desde cedo. E quando a nova tecnologia de rádio foi combinada com a tecnologia igualmente nova da aviação, toda a face da guerra começou a mudar.

    O impacto da Primeira Guerra Mundial sobre os engenheiros e engenheiros de rádio foi enorme. As necessidades da guerra impulsionaram a tecnologia a um ritmo dificilmente imaginável em tempos de paz. Instalações de rádio foram colocadas sob controle governamental direto e jovens brilhantes como Edwin Howard Armstrong foram obrigados ao serviço militar. O desenvolvimento de uma tecnologia de rádio que pudesse ser prontamente usada por soldados e marinheiros exigia o rápido avanço da radiotelefonia, que começou a substituir os sistemas sem fio codificados em todos os lugares.

    Essas necessidades geraram muitas realizações técnicas, das quais o circuito super-heteródino de Armstrong foi talvez a mais brilhante. Tão importante, porém, foi o papel da guerra em expor grande parte da população recrutada para o serviço militar às maravilhas do rádio, construindo assim as bases para o boom que estava por vir. A interação entre as necessidades militares e o avanço da engenharia seria um padrão repetido ao longo do século, com consequências com as quais os engenheiros e o público teriam que aprender a conviver. Quando o século 20 começou, a eletricidade ainda era para a maioria das pessoas uma coisa muito distante e desconhecida, e suas aplicações tocavam relativamente poucas pessoas diretamente. A América, como a maior parte do resto do mundo, era em grande parte um país de pequenas cidades, vilas e fazendas, e luz elétrica e energia raramente eram encontradas em tais locais. O grande trabalho dos engenheiros elétricos nas primeiras décadas do século foi levar seus milagres para a massa das pessoas - para aqueles que estavam fora das grandes cidades, para aqueles de classe econômica e social média. Ao fazer isso, os engenheiros elétricos se tornaram os principais arquitetos da vida no século XX.

    Nas primeiras décadas após 1900, a indústria de energia elétrica continuou seu rápido crescimento. Em 1902, a quantidade de energia elétrica disponível por pessoa nos Estados Unidos era de cerca de 75 kW, vinte anos depois, esse valor era de 565 kW por pessoa. O ritmo de expansão desacelerou na década de 1920, pois os desafios técnicos de transportar energia elétrica para além das áreas metropolitanas eram complexos e caros. Não era mais possível sustentar o crescimento simplesmente desenvolvendo os sistemas existentes - os engenheiros elétricos começaram a pensar em termos de sistemas muito maiores e estendidos, um conceito às vezes conhecido como "Superpotência". Tais sistemas, que foram propostos para levar eletricidade a grandes áreas, até mesmo estados inteiros, levantaram importantes questões sociais, econômicas e políticas, bem como técnicas, e os engenheiros elétricos foram envolvidos nos debates sobre a melhor forma de estender o acesso ao nova tecnologia para todos. Tornou-se amplamente reconhecido, em sociedades tão divergentes como os Estados Unidos e a União Soviética, que a "eletrificação" seria a chave para o desenvolvimento nacional no século 20 e que a engenharia elétrica era a profissão que detinha essa chave.

    Na década de 1920, poucos viram a necessidade de mudar a forma como a energia elétrica estava sendo estendida ao povo. A Grande Depressão dos anos 1930 mudou as atitudes, no entanto, à medida que políticos e o público buscavam maneiras de aliviar o sofrimento causado em alguns áreas pela calamidade econômica. O projeto individual mais importante resultante disso foi a criação em 1933 da Autoridade do Vale do Tennessee. A TVA foi criada para administrar um projeto fluvial multifuncional, com responsabilidade pelo controle de enchentes, produção de fertilizantes, construção de hidrovias e geração de energia hidrelétrica. Foi na geração e distribuição de energia que a TVA conquistou uma reputação internacional, e os engenheiros elétricos que projetaram e operaram o sistema de energia da TVA se tornaram os pioneiros dos grandes sistemas de energia do futuro.

    Os primeiros engenheiros elétricos tinham experiências muito diversas. Alguns tinham treinamento puramente prático, alguns tinham educação formal em áreas distantes da engenharia e alguns eram formados em áreas afins, como engenharia mecânica ou física. Os líderes da profissão, entretanto, foram rápidos em reconhecer que um novo campo exigiria um novo tipo de educação. Os primeiros programas de engenharia elétrica de nível universitário foram estabelecidos ao mesmo tempo em que os engenheiros começaram a se organizar na década de 1880, e seu rápido crescimento nas décadas seguintes tornou-se uma das fontes de força e união para a profissão.

    Quando o Instituto de Tecnologia de Massachusetts, em Boston, estabeleceu o primeiro programa de engenharia elétrica da América em 1882, ele foi vinculado ao departamento de física. O currículo refletia os laços estreitos com a física e incluía quantias generosas de engenharia mecânica e artes liberais. Na verdade, havia pouco estudo formal de "engenharia elétrica" ​​como tal, pois o assunto ainda não existia. Livros didáticos, procedimentos de laboratório, professores treinados e todos os outros aparatos de uma disciplina acadêmica tiveram que ser criados. Para alguns, essa foi uma das tarefas mais importantes dos engenheiros elétricos no século XX - uma tarefa que foi realizada com enorme sucesso.

    Desde o início, a engenharia elétrica atraiu muitos dos mais brilhantes e ambiciosos estudantes de engenharia - em 1892. Por exemplo, o campo conquistou 27% dos formados pelo MIT. Durante as primeiras décadas, o currículo de engenharia elétrica foi construído quase exclusivamente em torno da engenharia de energia, pois a indústria de energia em constante expansão era a principal fonte de demanda por engenheiros. Além disso, os princípios e a teoria necessários para o ensino eficaz do assunto desenvolveram-se rapidamente, graças ao trabalho de engenheiros de energia como Charles Steinmetz e Elihu Thomson, que se destacaram como educadores, bem como inventores e pesquisadores. A maior influência no ensino de engenharia elétrica foi, no entanto, exercida por homens que devotaram toda a sua carreira a trabalhar com alunos e colegas professores, homens como Dugald Jackson ou Harris J. Ryan.

    Após a Primeira Guerra Mundial, a importância do rádio e de outras aplicações possíveis dos tubos de vácuo não pôde ser ignorada nem mesmo pelo departamento de engenharia elétrica mais voltado para o setor elétrico. A "opção de comunicação" tornou-se um recurso cada vez mais comum em programas em todos os lugares. Outros esforços para tornar o ensino de engenharia mais responsivo às mudanças tecnológicas e às necessidades da indústria incluíram o estabelecimento de programas "cooperativos", o mais famoso dos quais foi iniciado no MIT na década de 1920. Eles viram professores e alunos trabalhando lado a lado com os engenheiros da empresa, lidando diretamente com os problemas práticos da indústria. Embora professores individuais possam fazer contribuições importantes para a tecnologia elétrica - a invenção da bobina de carga por Michael Pupin da Columbia foi a chave para a expansão da tecnologia telefônica - a maioria dos educadores de engenharia no início do século 20 pensava pouco em pesquisa ou publicação. Eles buscaram dar sua contribuição por meio do ensino e deixaram a criação de novas tecnologias para os laboratórios da indústria. Isso mudaria drasticamente em meados do século.

    As turbulentas primeiras décadas do século 20, marcadas por uma guerra global, uma prosperidade sem precedentes e depois uma depressão calamitosa, viram os engenheiros assumindo novos papéis na sociedade. O enorme impacto que o trabalho do engenheiro teve nas vidas e nos negócios de indivíduos e nações era óbvio para todos. Alguns, de fato, acreditavam que as responsabilidades do engenheiro estendiam-se à gestão de uma sociedade mais eficiente e racional, que os "tecnocratas" e não os políticos deveriam ser vistos como os líderes naturais de um mundo moderno complexo. Embora tais visões em sua forma extrema fossem defendidas por relativamente poucos, elas estimularam um amplo debate sobre os verdadeiros deveres e obrigações do engenheiro.

    Nos anos após a Primeira Guerra Mundial, o relacionamento entre engenheiros elétricos e o governo rapidamente se tornou uma questão importante para muitos na profissão. A tremenda importância do rádio que a guerra deixou claro para todos também deixou clara a necessidade de uma regulamentação governamental forte e tecnicamente sofisticada. Quando os Estados Unidos entraram na guerra em 1917, o governo federal agiu rapidamente para assumir todas as estações sem fio do país. O espectro de rádio era obviamente um recurso valioso demais para ser deixado sem controle em tempos de emergência nacional ou não regulamentado em tempos de paz. O crescimento da radiodifusão na década de 1920 tornou a necessidade de uma ação governamental concertada cada vez mais urgente, e o Secretário de Comércio Herbert Hoover convocou quatro Conferências Nacionais de Rádio durante a década para reunir engenheiros e políticos para tratar de questões técnicas e políticas.

    Finalmente, a Federal Radio Commission foi estabelecida em 1928, e uma longa tradição de estreita cooperação entre engenheiros de rádio e reguladores do governo começou. O rádio não era a única área em que os engenheiros se viam lidando diretamente com questões relativas ao interesse público e às responsabilidades do engenheiro em relação a ele. Em quase todas as áreas da tecnologia elétrica, a rápida expansão e a crescente importância do trabalho do engenheiro tornaram suas atividades um assunto de interesse público e, portanto, do governo.Desde o início dos setores de energia elétrica e telecomunicações, o governo local exerceu autoridade sobre a construção de serviços públicos e a concorrência. Em alguns lugares, o envolvimento político foi limitado à definição de taxas e controle de franquia. mas em outras jurisdições, a tecnologia elétrica era considerada tão essencial que os governos assumiam a responsabilidade total pelo fornecimento de energia e comunicações, tornando-se assim os principais empregadores de engenheiros elétricos. A TVA foi apenas o exemplo mais famoso de iniciativa governamental nessa área, pois governos locais em muitas áreas do país também prestavam serviços e, fora dos EUA, o controle governamental de energia e telecomunicações era a norma.

    A crescente complexidade da tecnologia do século 20 e a confiança cada vez maior que todos eram forçados a depositar nela sobrecarregavam os engenheiros elétricos. Eles não deveriam apenas buscar o avanço cada vez mais rápido de seu campo e a satisfação das necessidades de empregadores e clientes, mas deveriam estar cada vez mais conscientes de suas responsabilidades para com a sociedade e, no perigoso mundo do final do século 20, para a própria humanidade.

    Nenhum evento teve um efeito maior na engenharia elétrica do que a Segunda Guerra Mundial. Os anos de 1939 a 1945 testemunharam uma mudança radical na maneira como o mundo via os engenheiros elétricos e como eles se viam. Seu campo foi transformado de uma especialidade com aplicações bem definidas, principalmente em energia e comunicações, na fonte das tecnologias mais poderosas e difundidas do século XX. À medida que o século amadurecia, a guerra global deu lugar à guerra fria e os aliados tornaram-se inimigos e antigos inimigos tornaram-se amigos, a expansão das tecnologias elétricas e eletrônicas tornou-se uma das marcas da era moldada e moldando a história.

    No calor da guerra, a engenharia de rádio foi transformada em eletrônica, e os engenheiros de rádio foram transformados da mesma forma. Deles se tornou uma tecnologia para aproveitar o conhecimento mais avançado e sutil das próprias partes da matéria, manipulando elétrons e ondas eletromagnéticas quase que à vontade, em um esforço não apenas para se comunicar, mas para detectar, controlar e, mesmo como alguns viram, pensar . As tremendas pressões do desenvolvimento do tempo de guerra forjaram um novo relacionamento entre engenheiros e cientistas físicos. Cada vez mais os reinos e tarefas de ambos se sobrepunham, pois os avanços na eletrônica fizeram uso das últimas descobertas, teorias e técnicas de físicos e químicos, enquanto a descoberta científica passou a depender progressivamente mais da instrumentação criada por engenheiros. Essa fusão de ciência e tecnologia foi um dos maiores legados da guerra e continuou a moldar nossos tempos.

    As enormes demandas que a guerra impôs às economias mundiais trouxeram para casa outra lição sobre a tecnologia elétrica - o lugar estratégico e indispensável da energia elétrica. A Segunda Guerra Mundial marcou a passagem final da energia elétrica ao status de necessidade, não apenas aumentando o consumo industrial geral de energia, mas também destacando usos especializados da eletricidade, como a produção de alumínio e explosivos, que eram fundamentais para a busca de guerra. Na Europa, o ataque a usinas de energia e represas por bombardeiros aliados e do Eixo forneceu uma prova terrível do lugar central da eletricidade na guerra moderna. O aproveitamento da tecnologia da paz para as necessidades da guerra forneceu o prelúdio de uma fina ironia, no entanto, para o desenvolvimento mais dramático na produção de energia elétrica nas próximas décadas foi o esforço para transformar a energia na arma mais terrível da guerra, a atômica. bomba, em um servo da geração de energia.

    Os anos do pós-guerra foram de crescimento e mudança, acompanhados por tensões e conflitos tanto dentro da comunidade de engenheiros quanto na sociedade em geral. Mais uma vez, a guerra foi seguida por uma prosperidade sem precedentes, mas desta vez em um mundo onde os perigos e as possíveis consequências do conflito internacional eram terrivelmente óbvios. Os esforços dos engenheiros dividiram-se, assim, entre a criação de uma sociedade de consumo, movida a eletricidade e sintonizada pela eletrônica, e as demandas de segurança nacional e internacional, com grande desgaste de recursos e mão de obra. Ao lado dessa divisão havia outra, à medida que a anomalia de uma divisão da comunidade de engenheiros entre o AIEE e o IRE se tornava cada vez menos justificável. Nas décadas seguintes, esse problema foi resolvido, à medida que os engenheiros em todos os lugares reconheceram seus interesses comuns.

    Pelo menos desde Arquimedes, engenheiros e cientistas foram colocados em serviço em tempo de perigo nacional, mas nunca em uma escala como durante a Segunda Guerra Mundial ou com consequências tão enormes. Desde o dia em que os tanques nazistas invadiram a Polônia em setembro de 1939, ficou claro para todos que esta seria uma guerra de tecnologia, e a nação que pudesse criar e colocar em uso a ciência e a engenharia mais avançadas teria a vantagem .

    Novas circunstâncias exigiam novas formas de organização. Durante a Guerra Mundial, os Estados Unidos dependeram de agências como o Naval Consulting Board, chefiado por Thomas Edison, que despendeu muito de seu esforço simplesmente revisando ideias para invenções enviadas de todo o país. Esse mecanismo era claramente inadequado para a crise da guerra total. Os engenheiros elétricos se destacaram na criação das novas ferramentas necessárias para mobilizar a mão de obra científica e técnica do país. A mais significativa dessas ferramentas foi o Escritório de Pesquisa e Desenvolvimento Científico, chefiado pelo ex-professor de engenharia elétrica do MIT, Vannevar Bush. O OSRD deveria liderar muitos dos desenvolvimentos de engenharia da guerra, incluindo o aperfeiçoamento do sonar para detecção de submarinos, o detonador de proximidade para aumentar a eficácia do material bélico e o radar de ondas curtas, que revolucionou a defesa aérea.

    A maior parte da pesquisa científica e de engenharia realizada durante a guerra não foi realizada pelo próprio governo, mas em laboratórios acadêmicos e industriais por pessoas recrutadas em todas as áreas técnicas. Vários laboratórios especiais foram criados, e foi nessas instituições que muitos engenheiros elétricos aprenderam como a guerra estava transformando seu campo. Os melhores engenheiros da época foram escolhidos para organizar e dirigir os laboratórios, como, por exemplo, Frederick Terman de Stanford, que foi chamado para chefiar o Radio Research Laboratory em Harvard, que tinha a responsabilidade primária pelas contra-medidas eletrônicas ("jamming" )

    O maior e mais importante dos laboratórios patrocinados pela OSRD foi criado para o desenvolvimento de sistemas de radar eficazes e confiáveis. Chamado de Laboratório de Radiação para sugerir ao mundo exterior que estava preocupado com problemas supostamente mais inocentes da física, o estabelecimento acabou empregando cerca de 4.000 pessoas espalhadas por 15 acres de área dentro e ao redor do campus do MIT. Em seu auge, o "Rad Lab" empregava um quinto dos físicos dos Estados Unidos, além de centenas de engenheiros elétricos da academia e da indústria. Mais dinheiro - cerca de US $ 2,5 bilhões - foi gasto em pesquisa, desenvolvimento e produção de radar do que foi consumido pelo trabalho na bomba atômica, e os frutos técnicos, embora não tão espetaculares, foram do ponto de vista da engenharia tão impressionantes .

    Trabalhando em estreita colaboração com pesquisadores britânicos, o laboratório produziu toda uma série de sofisticados dispositivos de microondas, lançando as bases para uma grande família de radares e instrumentos de navegação, que foram peças-chave do esforço de guerra e que se tornaram esteios da tecnologia eletrônica do pós-guerra. Acima de tudo, a relação estreita forjada entre físicos e engenheiros sob o estresse da guerra deu um vislumbre do ambiente de pesquisa cada vez mais complexo do engenheiro no final do século XX.

    O mundo que os engenheiros elétricos enfrentaram no final da Segunda Guerra Mundial era muito diferente daquele da década de 1930, mas as agências subjacentes para a mudança eram instituições que estavam em formação há muitos anos. Os mais importantes deles eram os laboratórios de pesquisa industrial que várias das maiores empresas de tecnologia elétrica haviam criado nas primeiras décadas do século. Nesses laboratórios, engenheiros eram reunidos com cientistas, técnicos e recursos materiais, todos organizados em um esforço para melhorar o "estado da arte" ou para criar inovações que estendessem as oportunidades tecnológicas e comerciais a novas áreas.

    A fecundidade (e lucratividade) de tais esforços foi amplamente demonstrada desde muito cedo. O laboratório que Willis Whitney da General Electric montou em Schenectady, N. Y., em 1900 era um modelo para muitos seguirem, e sua produtividade era uma propaganda persuasiva para "P & amp D." industrial. O processo de William Coolidge para fazer filamentos de lâmpada de tungstênio dúctil e as lâmpadas e tubos a vácuo aprimorados de Irving Langmuir foram fontes não apenas de lucro, mas de orgulho justificável para o G.E. engenheiros e gerentes. A política de tentar colocar a inovação tecnológica em uma base sistemática foi vista como um sucesso retumbante, a ser seguido em grande ou pequena escala por muitos outros.

    Ninguém, entretanto, fez um uso tão bom da pesquisa industrial como a American Telephone and Telegraph Company. Em 1907, a AT & ampT e a Western Electric Company combinaram seus departamentos de engenharia e estabeleceram o Bell Telephone Laboratory na West Street, na cidade de Nova York. Em 1921, os laboratórios constituíram a maior organização de pesquisa industrial do país, ocupando 400.000 pés quadrados em um prédio de treze andares na parte baixa de Manhattan e empregando mais de 1.500 homens e mulheres. A organização foi colocada em uma base mais formal em 1925, quando Frank B. Jewett foi nomeado presidente da Bell Telephone Laboratories, Inc. Nas décadas seguintes, os laboratórios se destacaram por contribuições não apenas para a tecnologia de comunicação, mas também para a ciência básica. . A entrega do Prêmio Nobel de Física a Clinton J. Davisson em 1937 foi simplesmente o reconhecimento mais proeminente do trabalho científico dos laboratórios.

    A verdadeira importância da fusão da ciência e da engenharia no laboratório industrial tornou-se evidente para todos nos anos após a Segunda Guerra Mundial. Em 1947, três engenheiros-físicos do Bell Labs produziram a invenção eletrônica mais significativa da era - o transistor. John Bardeen, Walter Brattain e William Shockley estavam conscientemente buscando explorar novos conhecimentos sobre o comportamento de materiais semicondutores quando inventaram uma maneira de fazer um cristal de germânio fazer o trabalho de um tubo de vácuo triodo, o mais básico dos componentes eletrônicos. Seu trabalho se baseou na pesquisa de muitos antes deles, e muito teve que ser feito antes que o transistor e os dispositivos de estado sólido que se seguiram pudessem se tornar ferramentas práticas de engenharia, mas em retrospecto, é claro que o transistor deu ao engenheiro a chave para um um novo mundo eletrônico.

    De todas as novas tecnologias que emergiram do tumulto da Segunda Guerra Mundial, nenhuma teria impactos tão profundos e penetrantes como o computador digital. Como todos os desenvolvimentos revolucionários da guerra e do período pós-guerra, o surgimento do computador deveu muito ao trabalho das décadas anteriores. Já na década de 1830, o inglês Charles Babbage concebeu uma "máquina analítica" que realizaria operações matemáticas usando cartões perfurados, centenas de engrenagens e energia a vapor. A máquina de Babbage estava além da capacidade da tecnologia do século 19, mas sua visão representava uma meta que muitos buscariam no próximo século e meio. As necessidades dos próprios engenheiros elétricos deveriam fornecer incentivos consideráveis ​​para a construção de alguns dos primeiros computadores práticos.

    Em meados da década de 1920, o engenheiro elétrico do MIT Vannevar Bush desenvolveu o "integraph do produto", uma máquina semiautomática para resolver problemas na determinação das características de sistemas elétricos complexos. Alguns anos depois, veio o "analisador diferencial", o primeiro general máquina de resolução de equações. Essas máquinas eram dispositivos mecânicos e analógicos, mas, ao mesmo tempo em que eram construídas e copiadas, os princípios das máquinas elétricas digitais estavam sendo estabelecidos. Em 1937, Claude Shannon publicou na Transactions of the AIEE os princípios do circuito para um "somador elétrico para a base dois" e George Stibitz, da Bell Labs, construiu esse dispositivo de adição em sua mesa de cozinha. Naquele mesmo ano, Howard Aiken, então estudante em Harvard, propôs uma gigantesca máquina de calcular que poderia ser usada para tudo, desde projetos de tubos a vácuo até problemas de física relativística. Com o apoio de Thomas J. Watson, presidente da IBM, Aiken foi capaz de construir sua máquina, a "Calculadora Controlada de Sequência Automática" ou "Mark I." Quando foi concluído em 1944, o Mark I foi rapidamente colocado no serviço de guerra, calculando problemas de balística para a Marinha.

    A utilidade de tais máquinas para a guerra era amplamente aparente, e essa necessidade estimulou um desenvolvimento ainda mais rápido. Em 1943, o governo assinou um contrato com John W. Mauchly e J. Presper Eckert, da Universidade da Pensilvânia, para construir o "Integrador Numérico Eletrônico e Computador" - o primeiro verdadeiro computador digital eletrônico. Quando o ENIAC foi finalmente inaugurado em fevereiro de 1946, ele era uma maravilha e um monstro - pesando 30 toneladas, consumindo 150 kW de potência e usando 18.000 tubos a vácuo. Com tudo isso, ele conseguia realizar 5.000 adições ou 400 multiplicações por segundo, o que era cerca de mil vezes mais rápido do que qualquer outra máquina da época. Mais do que qualquer outra máquina, o ENIAC mostrou as imensas possibilidades dos computadores eletrônicos digitais.

    Essas possibilidades ocupariam engenheiros, matemáticos e outros nas décadas seguintes. O conceito de programa armazenado de John von Neumann, as máquinas ideais de Alan Turing, os dispositivos de memória de Jay Forrester e o compilador de programa de Grace Hopper foram apenas alguns dos insights e inovações que entraram na criação do computador eletrônico digital moderno. Gradualmente, mas com segurança, o computador revolucionou a ciência, os negócios, o governo e a engenharia, ao fornecer a capacidade de lidar com grandes quantidades de dados com muita rapidez e precisão. O computador representou outro tipo de revolução para os engenheiros elétricos, no entanto, pois colocou em suas mãos o desafio e a responsabilidade pela nova máquina mais poderosa do século XX.

    Essa história de sucesso não se repetiu na AIEE. Lá, no final da década de 1950, o aumento geral do quadro associativo caiu para apenas 3% ao ano, e a afiliação estudantil era de apenas dois terços do IRE. A organização não estava de forma alguma moribunda, pois havia se esforçado ao longo da década de 1950 para se adaptar ao status crescente das novas tecnologias eletrônicas e de comunicação. No final da década, a AIEE não era uma sociedade apenas de engenheiros de energia - mais de 30% de seus trabalhos técnicos eram em comunicações, eletrônica ou instrumentação, e a participação em conferências técnicas conjuntas com outras sociedades estava aumentando rapidamente. Ainda assim, a sociedade se sentiu um pouco deixada para trás pelo tremendo crescimento de seu irmão mais novo. Com maior frequência, foram levantadas questões em ambas as sociedades sobre o quão apropriado era para os campos cada vez mais inter-relacionados da engenharia elétrica serem representados por duas grandes organizações independentes.

    A ideia de que deveria haver apenas uma organização para engenheiros elétricos era antiga. Em sua fundação, os membros do IRE haviam decidido conscientemente que o novo campo do rádio poderia ser mais bem atendido por uma organização fora dos limites da AIEE, e naquela época as preocupações técnicas das duas sociedades pareciam confortavelmente distintas. Na década de 1940, no entanto, o escopo cada vez maior da eletrônica estava claramente mudando para as preocupações de energia, controle e comunicações da AIEE. Já em meados dos anos 40, membros proeminentes da AIEE defenderam a adesão ao IRE, uma chamada repetida em intervalos durante os anos 1950. No final da década, arranjos cooperativos foram elaborados para os membros das duas sociedades e, finalmente, em 1961, os principais executivos da AIEE e do IRE começaram a discutir seriamente a fusão. Um comitê conjunto fez recomendações e, quando a fusão foi posta em votação no ano seguinte, 87% dos membros de cada organização aprovaram. Em 1 de janeiro de 1963, o Instituto de Engenheiros Elétricos e Eletrônicos nasceu oficialmente.

    O esforço supremo necessário para vencer a Segunda Guerra Mundial exigiu um grau de cooperação sem precedentes entre os militares, a indústria e a academia. Trabalhando juntas, essas instituições desenvolveram as tecnologias necessárias para vencer a guerra. Mas o fim da guerra de tiroteio foi seguido muito rapidamente pela guerra fria e a demanda por armamentos sofisticados não iria embora. Como resultado, a aliança de conveniência entre os militares, a indústria e a academia, forjada para enfrentar a emergência do tempo de guerra, tornou-se uma parte permanente da vida moderna.

    Os requisitos dos militares influenciaram fortemente a direção da tecnologia do pós-guerra. Computadores digitais foram aplicados aos problemas de defesa aérea, produzindo o sistema SAGE (Semi-Automatic Ground Environment) para coordenar a detecção e interceptação de bombardeiros inimigos. A Marinha, com seus submarinos atômicos, foi pioneira na produção de eletricidade a partir da energia nuclear, e a primeira usina nuclear comercial dos Estados Unidos, em Shippingport, Pensilvânia, foi baseada nos projetos da Marinha. Mesmo tecnologias que não surgiram diretamente da pesquisa militar foram afetadas. O transistor foi uma invenção civil, mas o trabalho de desenvolvimento que o tornou um dispositivo útil e confiável foi financiado em grande parte pelos militares.

    Uma rede de organizações cresceu durante esse tempo para atender às necessidades de defesa. Alguns, como o Laboratório de Física Aplicada Johns Hopkins e o Laboratório de Servomecanismos do MIT, foram formados durante a Segunda Guerra Mundial. Outros, como a System Development Corporation, que forneceu a programação e o treinamento para o sistema SAGE, foram criações do pós-guerra. Em outros casos, firmas estabelecidas, como General Electric, Westinghouse e Raytheon, que haviam feito pouco trabalho militar antes da guerra, descobriram que o trabalho de defesa era um componente importante de suas atividades no pós-guerra.

    A carreira de Charles Stark Draper ilustra as oportunidades e desafios que esta rede de defesa ofereceu aos engenheiros elétricos. Trabalhando no Laboratório de Instrumentação do MIT, Draper desenvolveu uma mira giroscópica que melhorou muito a eficácia da artilharia naval durante a guerra. Depois da guerra, Draper voltou sua atenção para os problemas de navegação e orientação. Os submarinos nucleares, que podiam ficar submersos por dias ou semanas, não podiam depender da navegação celestial usada por navios de superfície ou submarinos convencionais. Além disso, os mísseis balísticos projetados para atingir alvos a centenas ou milhares de quilômetros do local de lançamento representavam problemas de orientação formidáveis. Combinando giroscópios com servomecanismos, acelerômetros e eletrônicos, Draper desenvolveu sistemas de orientação inercial que foram aplicados com sucesso a submarinos e aos mísseis Polaris, Poseidon, Thor e Titan.Sua maior conquista foi o sistema que guiou com segurança os astronautas da Apollo até a Lua e de volta à Terra.

    O desafio de fornecer segurança e prontidão em um mundo cada vez mais perigoso foi o principal estímulo para o avanço da tecnologia eletrônica nas décadas após a Segunda Guerra Mundial. Com o desafio, vieram oportunidades sem precedentes para os engenheiros explorarem as possibilidades de seu campo sem muitas das restrições usuais de custo e concorrência presentes no ambiente comercial. Os engenheiros enfrentaram outro desafio, no entanto, em manter sua independência e integridade profissional em um ambiente dominado pelo enorme estabelecimento impessoal responsável pela defesa nacional. Durante a maior parte da última metade do século XX, a percepção pública dos engenheiros foi moldada em grande parte pela maneira como eles enfrentaram esse desafio.

    As últimas duas décadas testemunharam uma revolução na tecnologia elétrica e, principalmente, na eletrônica. Acompanhado por mudanças na eletrônica de estado sólido que expandiram enormemente as capacidades e, ao mesmo tempo, reduziram radicalmente os custos, todo o domínio da engenharia elétrica cresceu muito além dos limites que a caracterizavam há apenas uma geração. Os engenheiros elétricos se tornaram os criadores e mestres da tecnologia mais difundida de nosso tempo, com profundos efeitos na sociedade e em sua profissão.

    Como acontece com todas as grandes mudanças tecnológicas e sociais, os efeitos da revolução eletrônica são complexos e difíceis de caracterizar. Para a profissão, o impacto mais óbvio foi o crescimento explosivo - o número de membros do IEEE aumentou 60% nas duas décadas após 1963. O aumento no número de alunos estudando nas áreas cobertas pelo IEEE --- computadores, comunicações , poder e assim por diante --- continua a ser dramático e não mostra sinais de desaceleração. A comunidade de engenharia elétrica representa, portanto, o maior grupo técnico individual do mundo, e quase um quarto de milhão de membros do IEEE constituem a maior sociedade de engenharia do mundo.

    O crescimento da engenharia elétrica gerou forças unificadoras e divisórias na profissão e na sociedade em geral. Os modernos sistemas de energia elétrica, por exemplo, permitem que a energia seja aplicada de forma fragmentada e discreta, permitindo uma distribuição cada vez mais ampla da atividade produtiva. Ao mesmo tempo, esses sistemas conectam todos os usuários em uma rede de dependência fortemente tecida. A microeletrônica tem a mesma tendência dupla, permitindo que os indivíduos trabalhem com computadores poderosos que estão totalmente contidos em suas mesas ou se envolvam em uma variedade de atividades comerciais ou sociais sem nunca realmente lidar com outro ser humano. A mesma tecnologia que promove tal isolamento permite que a pessoa com uma televisão em miniatura ou um rádio de banda cidadã seja "plugada" no mundo onde quer que esteja, tornando-a realmente parte de uma "aldeia global".

    As forças de unidade e divergência também atuam na comunidade de engenheiros. Com o tamanho e a complexidade crescentes, muitas das tendências que sempre funcionam para separar os praticantes de diferentes especialidades e subespecialidades umas das outras são mais difíceis de superar. Jargões, problemas técnicos diferentes e ambientes institucionais e econômicos divergentes compartimentam os engenheiros em grupos menores que podem ter dificuldade crescente de se comunicar uns com os outros. Por outro lado, o tamanho da comunidade de engenheiros elétricos e a multiplicidade de interesses comuns - profissionais, econômicos e técnicos - proporcionaram um terreno comum considerável para todos os engenheiros elétricos se encontrarem. O fato de haver uma única organização para falar por eles na década de 1980 é um testemunho do legado duradouro de um século de crescimento e mudança.

    O projeto de engenharia ideal é aquele que é altamente desafiador, é bem financiado, oferece a oportunidade de trabalhar com pessoas bem qualificadas, produz resultados tangíveis e goza de amplo apoio público. Na década de 1960. os programas aeroespaciais americanos chegaram perto de cumprir essas especificações.

    Os frutos tecnológicos desses programas foram muitos, mas os desenvolvimentos em duas áreas, microeletrônica e computadores, foram particularmente importantes para engenheiros elétricos. O crescimento da microeletrônica, e especificamente dos circuitos integrados, foi acelerado pela demanda por pacotes eletrônicos pequenos, robustos e leves com baixo consumo de energia para uso em satélites, aeronaves, espaçonaves e mísseis. Além disso, os enormes desafios matemáticos impostos pelos voos espaciais estimularam o desenvolvimento de computadores digitais. Grandes máquinas de mainframe eram essenciais para cálculos de projeto e trajetória, e pequenos computadores de bordo eram necessários para orientação e controle de espaçonaves tripuladas.

    As missões lunares da Apollo foram, em um sentido muito real, o auge do programa espacial, pois depois a mudança das prioridades nacionais resultou no desmantelamento de grande parte do aparato espacial, deixando muitos engenheiros sem trabalho. Em 1971, a taxa de desemprego entre engenheiros elétricos envolvidos nas áreas espaciais de computadores, eletrônica e engenharia de sistemas era de mais de 6,5%, o dobro da taxa de todos os engenheiros.

    Um problema relacionado era o fato de que os engenheiros das indústrias aeroespaciais eram altamente móveis, mudando de emprego para emprego conforme as oportunidades aumentavam ou conforme os contratos eram ganhos ou perdidos. O resultado foi que muitos desses engenheiros não acumularam a pensão e outros benefícios que estavam disponíveis em setores mais estáveis. O aumento do desemprego apenas exacerbou esse problema.

    No final, o "projeto de engenharia ideal" deixou um legado técnico e não técnico para os engenheiros elétricos. O programa espacial contribuiu muito para o avanço tecnológico e foi motivo de orgulho para os participantes. Mas o deslocamento econômico causado pelo declínio do programa levou muitos engenheiros elétricos a instar o IEEE a se tornar mais ativo na promoção dos interesses econômicos de seus membros. Esse esforço teve êxito em 1973, quando o Instituto decidiu ampliar suas preocupações para incluir a situação econômica e profissional de seus membros.

    Os computadores microeletrônicos e digitais, que receberam um forte impulso dos programas aeroespaciais dos anos 1960, desenvolveram-se nas tecnologias de "glamour" dos anos 1970 e 1980.

    As duas tecnologias tiveram um efeito profundo no curso da engenharia elétrica. Em primeiro lugar, eles reabriram a porta para a atividade empresarial de engenheiros individuais. As tecnologias estão se movendo tão rapidamente, a inovação é tão importante e os requisitos de capital são, relativamente falando, tão modestos que um pequeno grupo de engenheiros talentosos e ambiciosos podem abrir sua própria empresa, com potencial para lucros enormes.

    O circuito integrado foi um dos grandes frutos desta crescente atividade empresarial. A crescente complexidade dos dispositivos eletrônicos significava que mesmo os circuitos transistorizados poderiam ser muito grandes e pesados, especialmente para aplicações aeroespaciais. Além disso, a confiabilidade de tais circuitos era limitada pelo número cada vez maior de interconexões. O circuito integrado foi uma solução para ambos os problemas.

    Os circuitos integrados fizeram mais do que simplesmente resolver um problema tecnológico; na verdade, mudaram a maneira como os circuitos elétricos eram projetados. Os engenheiros se acostumaram a criar circuitos com um mínimo de componentes ativos, uma vez que transistores e diodos eram relativamente mais caros do que resistores e capacitores. Mas os componentes ativos são menores e mais fáceis de colocar em um chip de silício do que os inativos. Assim, os circuitos mais adaptáveis ​​à integração são os circuitos digitais, com muitos componentes ativos executando funções lógicas "sim-não". Uma vez que esses são os tipos de circuitos usados ​​em computadores, o circuito integrado não apenas tornou os computadores realmente pequenos possíveis, mas também encorajou os engenheiros a procurar soluções digitais para problemas de projeto.

    A mistura de microeletrônica e computadores produziu o microprocessador, o computador em um chip. Isso possibilitou reduções tremendas no tamanho e no custo do computador e, conseqüentemente, tornou os computadores muito mais disponíveis para aplicativos nunca antes imaginados. Desde o início do desenvolvimento dos sistemas de energia elétrica, há cem anos, os engenheiros não produziram uma ferramenta tão fundamental e de longo alcance para a mudança. E, assim como acontecia há um século, grande parte da responsabilidade pela direção e impacto dessa mudança recai sobre os engenheiros.

    Em meio aos enormes avanços técnicos dos anos 1960 e início dos anos 1970, vários elementos da sociedade começaram a questionar a sabedoria de muitos desses avanços. A crescente impopularidade da Guerra do Vietnã e a incapacidade dos Estados Unidos de traduzir sua avassaladora vantagem tecnológica em rápida vitória militar manchou a reputação das indústrias de defesa e aeroespacial. A crescente preocupação com a poluição ambiental enfatizou os efeitos negativos da tecnologia, até então subestimados.

    A própria geração de eletricidade foi desafiada. Todos os principais métodos de produção de energia foram acusados ​​de criar danos ambientais. As barragens hidrelétricas causaram a destruição desnecessária de terras agrícolas úteis e habitats de vida selvagem. As usinas a vapor movidas a carvão produziram poluição do ar em grande escala e a mineração de carvão causou sérios danos à paisagem. As usinas movidas a óleo e gás consumiam recursos naturais cada vez menores e caros. A oposição mais séria e vocal estava reservada à energia nuclear. Uma série de acidentes nessas usinas, culminando com o acidente de Three Mile Island na Pensilvânia, mais o custo cada vez maior de construir usinas nucleares, fez com que os críticos acusassem a energia nuclear de outro exemplo ou tecnologia que era grande demais, cara demais também complicado e muito perigoso.

    O computador, uma das conquistas mais orgulhosas da engenharia elétrica, também foi objeto de muito escrutínio e crítica. A lista de males relacionados ao computador parecia interminável: desemprego e desvalorização de habilidades existentes de arquivos governamentais e empresariais que eram uma ameaça à privacidade: crimes de computador "viciados em computador" que desperdiçavam suas vidas na frente de um terminal e avarias de computador que poderiam causar tudo de uma cobrança excessiva de cartão de crédito a uma guerra nuclear.

    Engenheiros que tradicionalmente se viam como solucionadores de problemas agora se veem acusados ​​de serem os causadores de problemas. Os engenheiros reagiram a essa crítica de várias maneiras. Alguns achavam que a resposta para o problema causado pela tecnologia estava em aprimorá-la, refiná-la e, muitas vezes, substituí-la por tecnologias ainda mais sofisticadas. Outros se reuniram sob a bandeira da "tecnologia apropriada" em busca de soluções simples e frequentemente descentralizadas. Outros ainda instaram seus colegas a entrar ativamente no debate sobre tecnologia, a participar nas decisões não técnicas sobre como a tecnologia era usada e a considerar outros fatores além dos estritamente técnicos em seu trabalho. Finalmente, muitos engenheiros insistiram que tal envolvimento era simplesmente inapropriado para engenheiros, que seu trabalho era fornecer conhecimento técnico e que injetar elementos subjetivos no processo de engenharia era subverter esse processo.

    Os desenvolvimentos dos últimos vinte anos tiveram um tremendo impacto nos engenheiros elétricos como indivíduos, mas também tiveram um grande efeito no IEEE como instituição.

    Quando a AIEE foi fundada há cem anos, a engenharia elétrica se preocupava com a comunicação por fio e a produção e distribuição de eletricidade de corrente contínua para iluminação. Nos oitenta anos seguintes, a tecnologia elétrica se expandiu para abranger a corrente alternada, transmissão de alta tensão, rádio, eletrônica de tubo de vácuo e eletrônica de estado sólido.

    A fusão de 1963 do American Institute of Electrical Engineers e do Institute of Radio Engineers ocorreu, em parte, porque nenhuma das organizações representava todo o escopo da tecnologia elétrica. O sistema IRE Professional Group tinha feito muito para atrair membros dos novos campos da eletrônica, mas o IRE tinha pouco interesse para engenheiros de energia. A AIEE, por outro lado, era orientada para o poder e, como ele próprio admite, não conseguira entrar em novos campos. O IEEE resolveu não apenas fundir as duas organizações diversas, mas também acomodar novas tecnologias à medida que surgissem. O novo Instituto adoptou a estrutura de Grupo Profissional do IRE, que evoluiu para as sociedades actuais. Por meio das sociedades, o IEEE assimilou novas tecnologias como microeletrônica, comunicações por satélite e computadores digitais.

    No entanto, esse próprio esforço para acomodar a diversidade levanta seus próprios problemas. Um desses problemas é a identidade da própria profissão. O que é, além de um currículo de graduação comum, que une os membros da Electrical Insulation Society, da Antennas and Propagation Society e da Engineering Management Society e os torna todos membros da mesma profissão?

    Um segundo problema relacionado é o grau em que os profissionais de uma especialidade sentem que o IEEE atende aos seus interesses e a quantidade de influência que o Instituto está disposto a conceder a uma determinada especialidade. À medida que um subgrupo técnico cresce em tamanho e influencia, as forças centrífugas que atuam sobre o Instituto aumentam. A Computer Society é o melhor exemplo dessa tendência.

    A crescente diversidade técnica do Instituto tem sido acompanhada por um rápido crescimento. O número de membros aumentou de cerca de 150.000 no momento da fusão para mais de 240.000 hoje. O tamanho do IEEE requer esforços especiais para manter todos os membros adequadamente informados e encorajar a participação de mais do que uma minoria ativa.

    Em suma, o escopo cada vez maior da tecnologia elétrica e eletrônica desafia continuamente o IEEE a atrair os praticantes de novas tecnologias enquanto, ao mesmo tempo, define e promove os laços comuns entre eles.


    O Interpolador de Relé da Bell Labs está concluído

    George Stibitz por volta de 1940

    O Exército dos EUA pediu aos Laboratórios Bell para projetar uma máquina para auxiliar no teste de seu diretor de armas M-9, um tipo de computador analógico que aponta grandes armas para seus alvos. O matemático George Stibitz recomenda o uso de uma calculadora baseada em relé para o projeto. O resultado foi o Relay Interpolator, mais tarde denominado Bell Labs Model II. O Relay Interpolator usou 440 relés e, como era programável por fita de papel, foi usado para outras aplicações após a guerra.


    Motor de diferença # 2

    Babbage não desistiria tão rapidamente. Em um mundo onde os cálculos eram geralmente levados a não mais que seis dígitos, Babbage pretendia produzir mais de 20, e o Motor 2 resultante precisaria de apenas 8.000 peças. Sua máquina de diferença usava números decimais (0-9) - em vez dos "bits" binários que o alemão Gottfried von Leibniz (1646-1716) preferia - e eles seriam colocados em engrenagens / rodas que se interligavam para criar cálculos. Mas o motor foi projetado para fazer mais do que imitar um ábaco: ele poderia operar em problemas complexos usando uma série de cálculos e poderia armazenar resultados dentro de si mesmo para uso posterior, bem como estampar o resultado em uma saída de metal. Embora ainda pudesse executar apenas uma operação por vez, estava muito além de qualquer outro dispositivo de computação que o mundo já tinha visto. Infelizmente para Babbage, ele nunca terminou a Máquina Diferencial. Sem mais nenhum subsídio do governo, seu financiamento acabou.

    Em 1854, um impressor sueco chamado George Scheutz (1785-1873) usou as ideias de Babbage para criar uma máquina funcional que produzisse tabelas de grande precisão. No entanto, eles haviam omitido recursos de segurança e ele tendia a quebrar e, conseqüentemente, a máquina não conseguiu fazer um impacto. Em 1991, pesquisadores do Museu da Ciência de Londres, onde os registros e testes de Babbage eram mantidos, criaram uma Máquina Diferencial 2 para o projeto original após seis anos de trabalho. O DE2 usava cerca de 4.000 peças e pesava pouco mais de três toneladas. A impressora correspondente foi concluída em 2000 e tinha o mesmo número de peças novamente, embora com um peso um pouco menor de 2,5 toneladas. Mais importante, funcionou.


    Design de engenharia

    Os computadores são amplamente usados ​​para fins de engenharia.

    Uma das principais áreas é o CAD (Computer Aided Design) que fornece criação e modificação de imagens. Alguns dos campos são & menos

    Engenharia estrutural & minus Requer análise de tensão e deformação para projetos de navios, edifícios, orçamentos, aviões, etc.

    Engenharia Industrial & minus Computadores lidam com projeto, implementação e melhoria de sistemas integrados de pessoas, materiais e equipamentos.

    Engenharia Arquitetônica & minus Os computadores ajudam no planejamento de cidades, projetando edifícios, determinando uma variedade de edifícios em um local usando desenhos 2D e 3D.


    Assista o vídeo: Geração dos computadores (Junho 2022).


Comentários:

  1. Cinnard

    Peço desculpas, mas, na minha opinião, você não está certo. Vamos discutir. Escreva para mim em PM.

  2. Ardell

    O maior número de pontos é alcançado. Eu acho que é uma boa ideia. Concordo com você.

  3. Royns

    Mlyn, os spammers já conseguiram livremente com este primitivo!

  4. Badr Al Din

    Não posso participar da discussão agora - não há tempo livre. Mas vou voltar - com certeza vou escrever o que penso.

  5. Clint

    Que pergunta adorável

  6. Shaan

    Nós falamos.



Escreve uma mensagem