Observações filosóficas sobre a tecnologia da informação e seus problemas

Bismarck Bório de Medeiros

Doutorando em Filosofia nas áreas de Epistemologia e Lógica Filosófica - PPGF UFSM

26/02/2025 • Coluna ANPOF

Ao início do século XXI, com o advento da chamada Internet 2.0, nossa relação com a tecnologia da informação se emaranhou de tal forma que ainda hoje buscamos compreender os problemas gerados por esta interação massiva e de dupla via de informação recebida e transmitida em plataformas digitais. Estamos em um momento histórico onde os maiores detentores de poder econômico são os que possuem plataformas e mídias sociais que dão vazão a uma enxurrada de informação que alteram panoramas políticos de forma substancial, minando direitos e obtendo dados a partir de seus usuários para direcioná-los a determinados interesses. Contudo, isto é muito mais estrutural e vai além de controle econômico e político per se. Meu foco neste ensaio é expor brevemente certas conjunturas que a médio e longo prazo se configuram em problemas interdisciplinares que estão pondo a sociedade em processo de transformação com pouca compreensão de seus fatores. O fenômeno que irá nortear a discussão é justamente como nossa relação com a tecnologia proporciona a extensão de certas habilidades, mas prejudicando as nossas capacidades de apreensão cognitiva para exercer estas habilidades: este fenômeno social é o que denomino de paradoxo tecnológico da extensão restritora ou atrofiadora.

Desde muito antes da era digital, os instrumentos e artefatos tecnológicos desenvolvidos analogicamente poderiam ser vistos como extensões de nossas capacidades humanas. Indo mais além e analisando o que podemos considerar tecnologia, a linguagem e seus recursos seriam um notável tipo de tecnologia que retroalimentaria outras (por exemplo, a passagem dos conhecimentos da produção de artefatos e seus aperfeiçoamentos através das gerações, seja na forma oral ou escrita). Nesta caixa de ferramentas, podemos colocar as próprias tecnologias da informação, onde temos os artefatos e as linguagens (sejam elas formais ou informais) desenvolvidas no processo. Com isso, há uma imensa quantidade de ferramentas informacionais em mãos para produzirmos variados outputs (a metáfora computacionalista presente aqui) e partir dos inputs existentes. Quem poderia ter um estúdio para produção e edição de vídeos poucas décadas atrás? Atualmente temos um em nossas mãos. Há poucos anos, não fazíamos ideia que aplicativos poderiam fazer com que qualquer pessoa pudesse se tornar um condutor de transporte a serviço de demanda por outras pessoas anônimas em praticamente qualquer lugar, modificando a logística de transporte de passageiros em todo o mundo. Houve uma maior democratização de recursos que antes era restrito a uma pequena parcela da população.

Contudo, temos um revés gerado por isso: as instituições que empregam as tecnologias de informação nestes feitos retiram o potencial de desenvolvimento da habilidade técnica do sujeito, antigamente necessário para execução de suas funções. Inicialmente, em favor de maior acessibilidade e simplicidade, a mediação da tecnologia empregada gera um fator de dependência e até restrição de nossas capacidades para exercer certas funções. Ainda dentro do exemplo anterior, um motorista de táxi não deixa de o ser não tendo seu taxímetro. Já um motorista de aplicativo, se não tiver o aplicativo, sim. Um físico que souber fazer raízes quadradas pelo método de Newton-Raphson não perderá esta capacidade se não tiver calculadora, enquanto o físico apenas afeito ao instrumento a perderá. Exercer determinada função com a sua realização terceirizada ou mediada por tais tecnologias lhe condenam a própria precarização desta função – no caso do motorista – assim como não incentivar áreas cognitivas que envolvem a memória de trabalho prejudicam o desenvolvimento desta memória de trabalho.

Agora, com os modelos de linguagem generativa, temos duas questões em pauta que se relacionam com o paradoxo citado acima: a utilização desta ferramenta não como um meio de produção de textos, e sim como fonte de conhecimento; e a diminuição ou restrição léxica da elaboração criativa e construção textual. Além de termos aqui uma latente dependência epistêmica do sujeito à empresa ou grupo de trabalho que proporciona o treinamento algorítmico do programa, os usuários podem paulatinamente ter sua habilidade de elaboração textual restrita ou mal formada. Inclusive vem se observando – através dos “vícios de linguagem” dos modelos – a utilização deste tipo de recurso dentro da elaboração e até nos pareceres de artigos científicos. Assim, devido a facilidade, será questão de tempo até pessoas produzirem textos lexicalmente tal como os modelos de linguagem e não conseguirmos diferenciar em um ambiente virtual a ferramenta de seu usuário. O empobrecimento cognitivo nos leva a um indesejado e distorcido Teste de Turing.

Dito isso, não pretendo insinuar que devemos voltar aos tempos do ábaco, ou que as pessoas devam ter formação técnica de todo artefato que possuem. Até na antiguidade deveria ter alguém especializado em consertos de ábacos. A questão aqui é a perda de um equilíbrio entre o aparato tecnológico proporcionar autonomia e independência ao sujeito, ou exercer controle e demandar sua dependência, em várias camadas. Este último torna-se predominante nas tecnologias da informação aparentemente por fatores econômicos, pois manter a demanda do produto por seus usuários é a base deste tipo de empreendimento (e do sistema em que estamos afundados). Aqui, entramos em dois pontos mais complexos: a intencional substituição de pessoas e artefatos associados às tecnologias anteriores por processos que retiram a participação ativa de sujeitos em sua constituição; e a mudança intencional dos comportamentos dos usuários de seus produtos. O primeiro fator, claro, já ocorreu em outros momentos de revolução industrial e de automatização do trabalho. Já no caso do segundo, pode-se alegar sobre como na Publicidade e Propaganda – desde antes de seu desenvolvimento por Edward Bernays – este fator já seria observado. Contudo, creio que as tecnologias da informação deram a estes fatores outra proporção.

Assim, podemos citar diversos fenômenos como consequências dos pontos destacados acima: índice maior de pessoas em trabalhos diretamente relacionados a aplicativos e que não correspondem à sua formação (sem vínculo empregatício ou organização sindical bem definida, diga-se); concentração de poder e renda das big techs com objetivos de retenção máxima da atenção, agência e comportamentos de seu público-alvo, os atrelando aos seus ambientes virtuais; algoritmização das escolhas dos usuários pelas plataformas; “aposentadoria” ou esquecimento de tecnologias que proporcionavam à pessoa ter posse de informações sem a mediação direta de plataformas, que vão desde mídias físicas de CD, DVD (e seus dispositivos de leitura) até ao pendrive; o atual desenvolvimento de linguagens generativas de código para substituição de programadores – este último caso é até irônico – dentre outros. Dando destaque neste ponto ao fator da mudança comportamental, há uma relação entre pesquisas financiadas por big techs de psicologia da economia e mídias sociais, que têm por objetivo tornar as plataformas eficientes em reter a atenção do usuário independente do custo social da implementação de tais medidas. Aqui haveria uma consequência do paradoxo da extensão restritora: pesquisas utilizadas para entender o comportamento e controlá-lo, restringi-lo, limitando como escopo agencial através de plataformas, adequando assim o usuário ao “conteúdo”. Neste sistema tecnológico, há uma produção da economia de atenção tal como há uma produção de economia com base na obsolescência programada.

O que cabe a ser feito por quem se preocupa com questões filosóficas interdisciplinares? Mesmo buscando com esse ensaio fazer uma breve análise e ser portador de más notícias para alguns, podemos comentar caminhos possíveis – mesmo que sejam uns óbvios, outros custosos. Inicialmente, todos pensam que legislar pode auxiliar a conter os efeitos nocivos destes problemas. Porém, o buraco é mais embaixo. Contradizendo o título do ensaio, reconhecer que a tecnologia da informação em si não é o problema, mas sim como, por quem e para quê ela é implementada, é um início. Investigarmos para entender o status epistêmico destas ferramentas informacionais e o que é produzido a partir delas e colocá-las epistêmica e socialmente em seu devido lugar ou função é uma coisa. Apontar as intenções e modus operandi de quem usa estas ferramentas de forma perniciosa é outra coisa. Dentro deste tema, há também uma abordagem educacional: as gerações mais novas que nasceram imersas em tecnologia não tiveram a vivência de uma rápida progressão tecnológica, nem como se constituíram as tecnologias atuais a partir das que estão fora de linha. Desta forma, o incentivo a disciplinas que abordem desde a história da tecnologia e seus artefatos, às mídias de comunicação, aparelhos de transmissão e recebimento de dados e como funcionam as tecnologias de informação e comunicação (TIC’s, termo inclusive bem presente no PNE) deve ser bem mais aprofundado. Por fim, teríamos que pensar em um retorno a como entendemos qual deve ser a participação das tecnologias da informação em nossas vidas, desconcentrando poder das big techs com iniciativas locais, dando o valor adequado do que seria material e real em comparação ao que seria virtual ou alusório[1]. Nestes caminhos podemos pensar em uma devida mediação integradora destas tecnologias em nosso cotidiano, para evitar ou mitigar esta paradoxal extensão restritora de nossas capacidades.


Notas

[1] Referente ao conceito allusion, enunciado pela primeira vez por pesquisadores e filósofos brasileiros em ROLLA, Giovanni ; VASCONCELLOS, Guilherme; FIGUEIREDO, Nara M. Virtual Reality, Embodiment, and Allusion: an Ecological-Enactive Approach. Philosophy and Technology 35 (4): 1-23, 2022.


A Coluna Anpof é um espaço democrático de expressão filosófica. Seus textos não representam necessariamente o posicionamento institucional.