"Não há fenômenos morais, mas apenas uma interpretação moral de fenômenos."
Friedrich Nietzsche
Um vírus de computador, assim como um vírus biológico, se instala em um hospedeiro
com o objetivo de replicar-se e, consequentemente, aumentar as chances de se
espalhar e alcançar outros hospedeiros. Um entre diferentes tipos existentes é
o malicioso, ou seja, aquele que danifica o equipamento ou rouba informações
sigilosas. Outro tipo é aquele que tem o objetivo apenas de se espalhar, promovendo
certo "status" aos seus desenvolvedores (quase como uma pichação na parede).
Existem ainda vírus benignos, que tem como função
descobrir as fraquezas do sistema em prol do desenvolvimento de melhorias de
segurança.
Já faz certo tempo que dois códigos maliciosos "disputam" o posto de qual seria
o primeiro vírus que se tem registro. Em 1982, um garoto de 15 anos, Rich Skrenta, desenvolveu o vírus
Elk Cloner. Depois de
instalado, via disquete infectado, a cada 50
reinicializações do computador, um "poema" era mostrado na tela. Mais tarde, em
1986, um segundo vírus foi detectado, com o nome de Brain. Ao ser instalado na
máquina, ele danificava a seção do disco rígido responsável pela
inicialização do computador. A "desculpa" de seus desenvolvedores? O programa era
responsável por detectar cópias piratas de um software médico de monitoramento cardíaco, em
computadores da Apple, de forma que, ao
ser migrado para o MS-DOS, acabou se tornando um vírus (uhm, sei...). Fato é que alguns acham que o Elk Cloner é
malicioso, outros acham que ele não é (que mal tem ficar mostrando um poema?), desde
então a peleja permanece entre os dois.
Sem mais delongas, nós temos a habilidade de avaliar as intenções. Portanto,
conseguimos diferenciar o que é um vírus do que não é. Concordo que as vezes
com mais dificuldade, outras vezes com menos. Porém, do ponto de vista do
computador, o que é um vírus? Não passa de mais um software em execução.
Desviando: Em um jogo de futebol, se uma das duas equipes for privilegiada
pelo árbitro, isso fará com que a partida deixe de ser futebol? A resposta é
não. Mas tudo bem, darei outro exemplo para o caso que você não tenha se
convencido totalmente. Um jogo entre adultos e crianças requer equilíbrio de
forças para ser considerado uma partida de futebol? Mais uma vez a resposta é
não. Somos nós que buscamos a partida justa e por isso não promovemos esse tipo
de situação. Somos nós que colocamos a moralidade e a justiça sobre uma partida
de futebol, mas o sistema em si não as requer. Nós é que ansiamos pela
igualdade de oportunidades, imparcialidade e justiça, tanto no futebol, quanto
em qualquer outra forma de organização.
Voltando: Olhando para os sistemas que construímos – por exemplo, a
economia, as profissões, o esporte, a religião, as etnias, os grupos sociais, a
sociedade – o que poderíamos dizer sobre a moral? Eu diria que ela é somente
mais uma regra, mais um "dente da engrenagem" (já falei sobre engrenagens aqui), apenas mais um "software" dentro do "computador". Os sistemas em si não possuem moral, ela não é intrínseca a eles,
mas somos nós que interpretamos as situações e dizemos, "isso é um vírus maligno",
ou "isso é um vírus benigno", ou "isso só está querendo chamar atenção". A
moralidade está no homem. O sistema aceita qualquer coisa, mas nós construímos
as fronteiras.
Portanto, a religião mata? O futebol mata? O petróleo e o dinheiro
matam? As diferenças entre os grupos sociais e étnicos matam? A política mata?
Os diferentes tipos de relacionamento matam? O trânsito mata? As festas de
final de semana matam? Quem é que mata? Qual o verdadeiro responsável pelos
conflitos do passado, de hoje e por aqueles que ainda acontecerão? Seriam os
sistemas que construímos? Pois já falei aqui sobre uma outra
habilidade que temos, a de transferirmos a responsabilidade e ainda assim
dormirmos tranquilamente durante a noite.
Se a moral fosse inerente aos sistemas, talvez fosse fácil resolvermos os conflitos, bastaria desenvolvermos sistemas moralmente superiores. Então, parece-me que a moralidade começa a fazer sentido. Proteção? O
que aconteceria se todos os princípios morais que conhecemos fossem refutados?
Quais princípios podem ser banidos e quais não podem? Quem de nós é capaz de
responder a estas perguntas? Seria o conservador, o radical, ou o equilibrado?
Eu particularmente tenho medo das "verdades absolutas", mas é fato que a
humanidade chegou até aqui sustentando-se sobre princípios morais. Acredito que
temos muito o que discutir ainda sobre qualquer mudança que almejamos promover,
ou mesmo sobre aquelas que já iniciamos. A perpetuação da espécie pode depender
disso.
Como nossos avós educaram nossos pais? Como nossos pais nos educaram?
Como nós estamos educando nossos filhos? Como era e é o mundo de cada uma destas
diferentes gerações? Talvez você possa pensar, "e a evolução?". Porém, em que
ponto a tecnologia, o conforto, as oportunidades, as conquistas, a inteligência
e a própria evolução entram em conflito com os princípios morais? A pergunta que
devemos fazer não é "o que é possível ou permitido?", mas sim "o que estamos
construindo?". A nossa geração será estudada nos livros como a que abriu as
portas, ou como a que (quase) estragou tudo? Sinceramente, eu não faço a mínima
ideia. O que eu sei é que estou construindo algo, mesmo sem perceber. No caso
mais extremo, quem cala é, no mínimo, cúmplice.
Desviando: As leis da robótica foram apresentadas por Isaac Asimov no
livro "Eu, Robô (1950)", que também foi adaptado para o cinema em 2004, e consistem em:
"1ª
Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser
humano sofra algum mal.
2ª
Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos
exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
3ª
Lei: Um robô deve proteger sua própria existência desde que tal proteção não
entre em conflito com a Primeira ou Segunda Leis."
Na história, a
inteligência artificial dos robôs evoluem a tal ponto que eles percebem que a
humanidade está causando mal a si mesma. Interpretando as leis, sem infringir
nenhuma delas, pelo contrário, fundamentando-se sobre todas elas, as máquinas
chegam a conclusão de que estão autorizadas a aprisionar a humanidade de forma
a sustentar a espécie.
Mais tarde, no livro "Os Robôs do Amanhecer (1983)", é introduzida a lei zero, que é colocada acima de todas
as outras três leis:
"Lei Zero: Um robô não pode causar mal à
humanidade ou, por omissão, permitir que a humanidade sofra algum mal."
Voltando: Essa coisa de inteligência artificial ou robôs assumindo o
poder para proteger a humanidade de si mesma é pura ficção cientifica. E aposto
que continuará sendo. Sou daqueles que acreditam que sempre terão o controle
sobre o botão "desliga" de uma máquina. Ou será que sou somente eu que acredita
nisso? Que seja... Mas há um ponto sobre o qual eu concordo com Isaac Asimov,
nós sempre precisaremos de alguém que nos proteja de nós mesmos. Quando
crianças, cada um de nós tem a sua protetora, elas são diferentes entre si e
possuem diferentes nomes. Porém, quando nos tornamos adultos, passamos a ter
uma única babá, comum a todos. Ela chamasse Dona "Princípios Morais", que
continuará nos protegendo de cometermos "travessuras". E, como sempre, em nada adiantará fazermos birra.
Curiosidade: Segue o poema
mostrado pelo Elk Cloner:
The program with a
personality (O programa com uma
personalidade)
It will get on all your
disks (Ele vai ficar em todos os seus
discos)
It will infiltrate your
chips (Ele vai se infiltrar em seus
chips)
Yes it's Cloner! (Sim,
é Cloner!)
It will stick to you like glue (Ele vai grudar em você como cola)
It will modify RAM too (Ele vai modificar a RAM também)
Send in the Cloner! (Envie o Cloner!)
Nenhum comentário:
Postar um comentário