terça-feira, 15 de março de 2016

Nesta Idade e Ainda Precisando de Babá

"Não há fenômenos morais, mas apenas uma interpretação moral de fenômenos."
Friedrich Nietzsche


Um vírus de computador, assim como um vírus biológico, se instala em um hospedeiro com o objetivo de replicar-se e, consequentemente, aumentar as chances de se espalhar e alcançar outros hospedeiros. Um entre diferentes tipos existentes é o malicioso, ou seja, aquele que danifica o equipamento ou rouba informações sigilosas. Outro tipo é aquele que tem o objetivo apenas de se espalhar, promovendo certo "status" aos seus desenvolvedores (quase como uma pichação na parede). Existem ainda vírus benignos, que tem como função descobrir as fraquezas do sistema em prol do desenvolvimento de melhorias de segurança.

Já faz certo tempo que dois códigos maliciosos "disputam" o posto de qual seria o primeiro vírus que se tem registro. Em 1982, um garoto de 15 anos, Rich Skrenta, desenvolveu o vírus Elk Cloner. Depois de instalado, via disquete infectado, a cada 50 reinicializações do computador, um "poema" era mostrado na tela. Mais tarde, em 1986, um segundo vírus foi detectado, com o nome de Brain. Ao ser instalado na máquina, ele danificava a seção do disco rígido responsável pela inicialização do computador. A "desculpa" de seus desenvolvedores? O programa era responsável por detectar cópias piratas de um software médico de monitoramento cardíaco, em computadores da Apple, de forma que, ao ser migrado para o MS-DOS, acabou se tornando um vírus (uhm, sei...). Fato é que alguns acham que o Elk Cloner é malicioso, outros acham que ele não é (que mal tem ficar mostrando um poema?), desde então a peleja permanece entre os dois.

Sem mais delongas, nós temos a habilidade de avaliar as intenções. Portanto, conseguimos diferenciar o que é um vírus do que não é. Concordo que as vezes com mais dificuldade, outras vezes com menos. Porém, do ponto de vista do computador, o que é um vírus? Não passa de mais um software em execução.

Desviando: Em um jogo de futebol, se uma das duas equipes for privilegiada pelo árbitro, isso fará com que a partida deixe de ser futebol? A resposta é não. Mas tudo bem, darei outro exemplo para o caso que você não tenha se convencido totalmente. Um jogo entre adultos e crianças requer equilíbrio de forças para ser considerado uma partida de futebol? Mais uma vez a resposta é não. Somos nós que buscamos a partida justa e por isso não promovemos esse tipo de situação. Somos nós que colocamos a moralidade e a justiça sobre uma partida de futebol, mas o sistema em si não as requer. Nós é que ansiamos pela igualdade de oportunidades, imparcialidade e justiça, tanto no futebol, quanto em qualquer outra forma de organização.

Voltando: Olhando para os sistemas que construímos – por exemplo, a economia, as profissões, o esporte, a religião, as etnias, os grupos sociais, a sociedade – o que poderíamos dizer sobre a moral? Eu diria que ela é somente mais uma regra, mais um "dente da engrenagem" (já falei sobre engrenagens aqui), apenas mais um "software" dentro do "computador". Os sistemas em si não possuem moral, ela não é intrínseca a eles, mas somos nós que interpretamos as situações e dizemos, "isso é um vírus maligno", ou "isso é um vírus benigno", ou "isso só está querendo chamar atenção". A moralidade está no homem. O sistema aceita qualquer coisa, mas nós construímos as fronteiras.

Portanto, a religião mata? O futebol mata? O petróleo e o dinheiro matam? As diferenças entre os grupos sociais e étnicos matam? A política mata? Os diferentes tipos de relacionamento matam? O trânsito mata? As festas de final de semana matam? Quem é que mata? Qual o verdadeiro responsável pelos conflitos do passado, de hoje e por aqueles que ainda acontecerão? Seriam os sistemas que construímos? Pois já falei aqui sobre uma outra habilidade que temos, a de transferirmos a responsabilidade e ainda assim dormirmos tranquilamente durante a noite.

Se a  moral fosse inerente aos sistemas, talvez fosse fácil resolvermos os conflitos, bastaria desenvolvermos sistemas moralmente superiores. Então, parece-me que a moralidade começa a fazer sentido. Proteção? O que aconteceria se todos os princípios morais que conhecemos fossem refutados? Quais princípios podem ser banidos e quais não podem? Quem de nós é capaz de responder a estas perguntas? Seria o conservador, o radical, ou o equilibrado? Eu particularmente tenho medo das "verdades absolutas", mas é fato que a humanidade chegou até aqui sustentando-se sobre princípios morais. Acredito que temos muito o que discutir ainda sobre qualquer mudança que almejamos promover, ou mesmo sobre aquelas que já iniciamos. A perpetuação da espécie pode depender disso.

Como nossos avós educaram nossos pais? Como nossos pais nos educaram? Como nós estamos educando nossos filhos? Como era e é o mundo de cada uma destas diferentes gerações? Talvez você possa pensar, "e a evolução?". Porém, em que ponto a tecnologia, o conforto, as oportunidades, as conquistas, a inteligência e a própria evolução entram em conflito com os princípios morais? A pergunta que devemos fazer não é "o que é possível ou permitido?", mas sim "o que estamos construindo?". A nossa geração será estudada nos livros como a que abriu as portas, ou como a que (quase) estragou tudo? Sinceramente, eu não faço a mínima ideia. O que eu sei é que estou construindo algo, mesmo sem perceber. No caso mais extremo, quem cala é, no mínimo, cúmplice.

Desviando: As leis da robótica foram apresentadas por Isaac Asimov no livro "Eu, Robô (1950)", que também foi adaptado para o cinema em 2004, e consistem em:

"1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

2ª Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.

3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis."

Na história, a inteligência artificial dos robôs evoluem a tal ponto que eles percebem que a humanidade está causando mal a si mesma. Interpretando as leis, sem infringir nenhuma delas, pelo contrário, fundamentando-se sobre todas elas, as máquinas chegam a conclusão de que estão autorizadas a aprisionar a humanidade de forma a sustentar a espécie.

Mais tarde, no livro "Os Robôs do Amanhecer (1983)", é introduzida a lei zero, que é colocada acima de todas as outras três leis:

"Lei Zero: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal."

Voltando: Essa coisa de inteligência artificial ou robôs assumindo o poder para proteger a humanidade de si mesma é pura ficção cientifica. E aposto que continuará sendo. Sou daqueles que acreditam que sempre terão o controle sobre o botão "desliga" de uma máquina. Ou será que sou somente eu que acredita nisso? Que seja... Mas há um ponto sobre o qual eu concordo com Isaac Asimov, nós sempre precisaremos de alguém que nos proteja de nós mesmos. Quando crianças, cada um de nós tem a sua protetora, elas são diferentes entre si e possuem diferentes nomes. Porém, quando nos tornamos adultos, passamos a ter uma única babá, comum a todos. Ela chamasse Dona "Princípios Morais", que continuará nos protegendo de cometermos "travessuras". E, como sempre, em nada adiantará fazermos birra.

Curiosidade: Segue o poema mostrado pelo Elk Cloner:

The program with a personality (O programa com uma personalidade)
It will get on all your disks (Ele vai ficar em todos os seus discos)
It will infiltrate your chips (Ele vai se infiltrar em seus chips)
Yes it's Cloner! (Sim, é Cloner!)
It will stick to you like glue (Ele vai grudar em você como cola)
It will modify RAM too (Ele vai modificar a RAM também)
Send in the Cloner! (Envie o Cloner!)

Nenhum comentário:

Postar um comentário