4 Informação

4.1 Edição

  • Estruturação.
  • Argumentação.
  • Consistência.
  • Aderência.
  • Fluência.
  • Correção.
  • Edição:
    • Fazer o merge no branch main.
    • Iniciar deploys periódicos (publicação).
    • Tradução de citações?
    • Apagar o branch feat/information (local e remotamente).
    • Mover a versão longa para o volume “Computação Crítica”, deixando aqui apenas a versão resumida.

4.2 Iconografia

  • Adicionar nota como “desde que não mencionado em contrário, todas as imagens são do autor”.
  • Coletar fotos de insetos, cogumelos, tranqueiras e outros seres, incluindo no texto com legendas evocativas da discussão forma/informação/lixo, incluindo:
    • “Informaçã”: os “estágios” de crescimento de uma maçã, como num filme de Jan Švankmajer.
    • “Fiat lux”: a chama de uma vela também é associada à transmissão de informações na forma de ideias: a “cópia” da chama de uma vela para outra implica que a vela original não se apaga, numa alegoria prometéica formatada por Benjamin Franklin (ou seria anterior a ele)?
  • Max Headroom.
  • Lixo eletrônico.
  • Imagens de satélite da destruição em Gaza.
  • [~] “A Anatomia de um sistema de IA”, Crawford e Joler (2018) (a depender da licença). Não há menção de copyleft em nenhum lugar.

4.3 Adendos

4.3.1 Mais prioritários

4.3.1.1 Abstração

  • Criar nova seção, “Abstração”, entre “Teorização” e “Informização”.

  • Abstração faz parte dos processos de extração, abordados no texto do Cap 3.

  • Etimologia de abstração:

    • Prefixos ab e abs em Glare (1968) pág. 3.

    • abstrahō, Glare (1968) pág. 13.

    • Absurdo, abstrato, absorto, absorvido.

  • Definição:

    • O conceito de abstração requer o conceito de abstração.

    • Abstração e Absorção. Uma extrai e a outra insere? Ab-extrair e Ab-sorver. As palavras vindas de processos concretos.

    • Abstrato é a extração da essência. As abstrações correm o mesmo perigo das extrações: perigan ser extracionismos com leituras enviesadas da realidade, selecionando alguns aspectos em detrimento de outros.

    • A “abstração” como uma extração de características que descarta um “resto” (resto entendido também no sentido de Cauquelin (2023)).

    • Abstrair também, talvez num entendimento recente, como se concentrar em algo para não prestar atenção num alredor ou situação desagradável.

    • Abstrair também como um tipo de absorção. Algo ou alguém agindo como abstrator de detalhes, cuidando de pormenores. Isso estabeleceria um nivelamento e/ou separação de “camadas” ou “concernências”/” âmbitos” de abstração. Permite que camadas ou âmbitos “despachem” atividades para outras camadas e âmbitos, que por suas vezes lidam com todos os detalhes operacionais. A abstração ocorre com a liberação dos despachantes de todos esses detalhes.

    • Abstração: extrair uma “essência”, sem detalhes específicos, casuísticos ou “acidentais”, para um modelo que seja “genérico”. A abstração é uma primeira etapa para a produção de formas-genéricas, produtos genéricos, atitudes genéricas, pessoas genéricas etc.

    • Abstração é uma ferramenta de poder também por ocultar detalhes sórdidos de operação, como por exemplo quem teve de morrer para que um produto chegue até a mesa do consumidor; quem sofre todos os dias para que tudo funcione de maneira “transparente”; etc.

    • Camadas, níveis ou platôs de abstração:

      • Dinâmica das camadas de abstração. Modelos de abstração como OSI. Pressupostos de desacoplamento e interconexão entre camadas. Pressupostos de que um “nível” não interfere no outro (modularização).

      • Níveis crescentes de abstração requerem e permitem níveis crescentes de extração.

      • Crescente consumo de recursos dos aparatos baseados em mais níveis de abstração. O alívio cognitivo humano é compensado pela intensificação do maquinário operado.

      • Abstração e escala: a escalabilidade parece requerer uma abstração, para que um mesmo modelo possa ser aplicado a situações diversas, numa economia da replicação. Isso se torna um grande problema se a mera potência de algo ser replicado se torna motivo para justificar sua replicação, sem que disso venha de qualquer necessidade.

      • “Camadas” ou de abstração também são usadas para “abstrair” – no sentido de “isolar” ou “desacoplar” parter que interagem entre si, de modo que posteriormente seja possível substituir uma “implementação” de um comportamento abstrato por outra (“separation of concerns”).

      • Camadas de Abstração criam uma “ilha de tranquilidade” isolada das conturbações do mundo, abstraindo as intermitências e disrupções, os detalhes volatéis e as instabilidades, fornecendo uma “interface” “limpa” e “bem acabada” para interação com um ambiente exterior imprevisível e constantemente em mudança. Para que continuem a funcionar, os detalhes operacionais precisam mudar o tempo todo para acompanhar as mudanças do mundo.

  • Discussão:

    • Todos os conceitos desta obra são abstrações. Há tanto relações diretas e indiretas, e também inter-níveis.

    • “Abstraction and Representation: Essays on the Cultural Evolution of Thinking”, Damerow (1996).

    • Abstração em Wark (2004).

    • Abstração em Pasquinelli (2023) Cap. 1 págs. 38-39.

    • Algo-ritmo em Pasquinelli (2023) Cap. 1 pág 37? Formas simbólicas vindas da relação do corpo com o mundo.

    • Confusão entre abstração e compressão/formatação.

    • Abstração em Hayek, Pasquinelli (2023) pág. 174.

    • Discussão sobre abstração também em Pasquinelli (2023), ao fim do Cap. 8.

    • “Símbolo”, “Pensamento” e “Inteligência” também como abstrações.

    • O erro da análise primitivista de que o pensamento simbólico (ou mesmo a abstração) seria a “origem” do problema.

    • “Abstração” é uma abstração: esse conceito é uma abstração recursiva: ela trata da capacidade de abstrair até mesmo um conceito cujo nome é “abstração”.

    • Genealogicamente, conceitos surgem do concreto para o abstrato.

    • Apenas em contextos como os da filosofia e matemática “puras” que os conceitos teriam uma origem descolada de casos concretos. Mesmo estes só são formulados por pessoas cuja intelecção foi “formada” a partir de experiências concretas.

    • Abstração e cientifização:

      • Teoria: abstração estruturada.

      • Hipótese: porção de uma teoria com relação de causalidade testável?

  • Pragmação:

    • Abstração e alienação:

      • Humanos como parte de uma “API”, tal como em Falleiros (2024).
    • Abstração e colonização: modelos que são aplicados insistente e forçosamente, modelos cujo modelo é a expansão; modelos cujo modelo só “funciona” se continuar expandindo, às custas do que estivem no seu caminho.

    • A noção de “template”.

    • Efemeralização, em (fuller2019?), incluindo nota de rodapé do texto “Tecnopolítica: um contraponto ao primitivismo”.

    • Tentativas de abstração da inteligência das pessoas para a maquinaria dita “autônoma”.

    • Inteligência Diminuída: selecionam algumas características presentes em comportamento inteligentes (identificação de “padrões”, agrupamento, síntese etc), mas que não os representam integralmente; e dão o nome de inteligência a esse subconjunto restrito.

    • Pragmatismo:

      • A abstração é um procedimento pragmático.

      • Prgamático é …?

      • O “abstrato universal” como economia; a distância entre a abstração das leis e sua aplicação concreta, Castoriadis (2002) págs. 133, 141-147, 157-159 etc.

      • A abstração tem sido valorizada como uma das características da inteligência.

    • Configuração (de figura).

    • Padrão:

      • “Padrão” (pattern) e “patrão”, Pasquinelli (2023) pág. 232.
    • Padronização:

      • Design patterns.

4.3.1.2 Formação

  • Pitagorização: bases anteriores para as doutrinas das formas. Causou grande influência em Platão.

  • Relação da Marca com Informação: o delineamento das Formas é uma operação de marcação e (“atribuição de borda”, mais do que “edge detection”) e destaque das bordas em relação a um “fundo”/ambiente/paisagem, vide Capítulo 2.

  • “A Individuação à Luz das Noções de Forma e de Informação”, Simondon (2020).

  • Bits: atomística da forma.

  • As doutrinas das formas e a relação entre os conceitos de “genótipo” e “fenótipo”.

  • Sem forma, dis-forme, não-forme, in-forme:

    • Aquilo que não tem forma: caos no sentido do vazio (vide notas em Rhatto (2024b)).

    • Na tradição ocidental Judaico-Cristã: Creatio ex nihilo (Livro da Gênese): começo a partir do nada, a partir da ausência de forma, até a própria luz ser feita.

    • “Formless Formation: Vignettes for the End of this World”, Ruiz e Vourloumis (2021), incluindo:

      • Universo sem forma, Ruiz e Vourloumis (2021) pág. 120 (grato à Alana pela recomendação).
  • Informação em Falleiros (2024) pág. 128.

4.3.1.3 Historização

  • Separar “Hiperluminismo” de “Explodismo”? Pode fazer mais sentido delinear quatro grandes eras informacionais ao invés de três.

  • “Le moment cybernétique: la constitution de la notion d’information”, Triclot (2008).

  • Histórico recente em Falleiros (2024) págs. 85-87.

  • “A informação após a virada cibernética”, Santos (2003).

4.3.1.4 Ofuscamento

  • Escrevo estas linhas para as pessoas viventes em 2024 em diante, a maioria provavelmente já familiarizada com os excessos informacionais.

  • Dados versus informação: tentativas de salvamento.

    • Dado (datum, data) e dados (data); etimologia:
      • Hoad (2002) pág. 113:

        • Data como plural de datum (algo dado ou concedido).
      • Onions (1966) pág. 245.

      • “Data as Word”, Rosenberg (2018).

      • Em Capurro (2022) págs. 228-229.

    • Micro-história:
      • Dado como dado (de dar e receber).

      • Dado como o que hoje chamaríamos de variável, por exemplo em problemas de geometria.

      • Dado como algo assumido sem questionamento para fins retóricos4, como afirmações dadas de antemão, axiomas, pressupostos etc, cuja veracidade ou factualidade não é questionada, servindo como parte do dispositivo argumentativo que chega a conclusões dadas as afirmações iniciais.

    • Algumas características da noção atual de dado/dados:
      • Dados vem (ou podem ser divididos) em pedaços.

      • Dados são agregativos5: eles se acumulam.

      • Dados nem sempre são dados (no sentido de ser dado por algo/alguém e recebido por outrem), mas também podem ser obtidos, captados. Mais do que isso: a constituição dos dados não é neutra6.

      • Essas características também são comuns à informação quando considerada como um agregado de dados.

      • Ao contrário de uma impressão usual sobre uma suposta imaterialidade dos dados, quanto mais examinamos o conceito, mais material ele parece7.

    • Crítica:
      • “Dados brutos” (raw data, “dado cru”) é um oxímoro, pois qualquer dado já está “cozido” de algum modo8.

      • Data como capta, “Humanities Approaches to Graphical Display”,

        Drucker (2011).

      • “Data before the Fact”, Rosenberg (2013).

      • “Why Digital Humanists Should Emphasize Situated Data over Capta”,

        Lavin (2021).

      • “Data: Not Just Another Four-Letter Word”, Wills (2023).

      • Em Shannon e Weaver (1963) só há menção à palavra data na pág. 68 – que no trabalho original, Shannon (1948), corresponde às págs. 20 e 21; em referencia a “dados de correção” (correction data).

      • Rhatto (2024b) Seção 9.5 - Dikē, em relação à chance.

      • “Data lakes”.

  • “I Hate the News”, Swartz (2006):

    • O núcleo da argumentação de Aaron Swartz:

      None of these stories have relevance to my life. Reading them may be enjoyable, but it’s an enjoyable waste of time. They will have no impact on my actions one way or another.

      I’d like to argue that following the news isn’t just a waste of time, it’s actively unhealthy. Edward Tufte notes that when he used to read the New York Times in the morning, it scrambled his brain with so many different topics that he couldn’t get any real intellectual work done the rest of the day.

      The news’s obsession with having a little bit of information on a wide variety of subjects means that it actually gets most of those subjects wrong. (One need only read the blatant errors reported in the corrections page to get some sense of the more thorough-going errors that must lie beneath them. And, indeed, anyone who has ever been in the news will tell you that the news always gets the story wrong.) Its obsession with the criminal and the deviant makes us less trusting people. Its obsession with the hurry of the day-to-day makes us less reflective thinkers. Its obsession with surfaces makes us shallow.

    • A análise é pertinente, mas vale um aparte: nossas vidas são sim impactadas, diretamente ou indiretamente, pelos assuntos e pela noticiação dos assuntos, à nossa revelia. Mas, se entrarmos no ritmo incessante das notícias e notificações, não teremos a menor condição de incidir criticamente no andar dos acontecimentos. Nossas pautas e prioridades serão sequestradas.

    • Existem outras maneiras de saber o que está acontecendo, e especialmente o que é importante saber, sem cair no dreno das notícias.

  • Fabricação de fatos descrita em Ferreira (2024):

    • Trecho:

      Assim como a extrema-direita leu e compreendeu Gramsci (a dimensão estratégica da guerra cultural para criar a hegemonia política nos espaços de poder da sociedade civil), também parece que entendeu uma das teses axiais do historiador conservador norte-americano Daniel Boorstin: a contradição entre notícias e a indústria midiática de informações – a mídia necessita de um fluxo constante da matéria-prima das notícias, os acontecimentos. Precisa de um interminável fluxo de conteúdo para atrair anúncios, espaços publicitários etc.

      O problema é que a realidade não produz tantos acontecimentos assim. O que Boorstin revelou em seu livro “The Image: A Guide os peudo-events in America” como, dessa maneira, a mídia cria “pseudo-eventos” para corrigir essa “deficiência” da realidade – cria coletivas, debates, encontros, conferências etc. para arrancar depoimentos, controvérsias que gerem manchetes.

      Consciente dessa contradição midiática existencial, a estratégia alt-right é criar uma usina produtora de crises, a engenharia do caos - fornecer um fluxo constante de “crises”, denúncias, contra os outros e até contra si mesma […]

      Satisfazer a sede midiática por acontecimentos. Aloprar a política, acelerando o tempo dos acontecimentos para que se sintonize com o tempo midiático.

    • Comentário:

      • Não há notícia: são sempre as mesmas mazelas.

      • Há notícia: há sempre algo novo nas mesmas mazelas; novas vítimas, novos perpetradores…

  • Ciclo das notícias:

    • Grosso modo: crescente, sobrecarga, esquecimento.

    • Imprensa tenta extrair o máximo de cada notícia, até o ponto do esgotamento.

    • Então começa um novo ciclo de notícias.

    • A exaustão ocorre sem que os problemas noticiados possam ser resolvidos; se não há solução, e já nos cansamos deles, ocorre uma espécie de ressaca da notícia após o porre informacional. Os problemas noticiados só “desaparecem” do campo de atenção se substituídos por outras notícias, outros fatos escabrosos, outras sensações.

    • De modo que pulamos de um ciclo de notícias para outro, numa velocidade que impede um trabalho político de mobilização social em torno dos problemas e das possíveis mitigações, ou mesmo soluções.

  • Notícia e estatística:

    • A passagem da notícia para a estatística.

    • A máxima atribuída a Stálin sobre a morte de uma pessoa ser uma tragédia, a de várias estatística.

    • Aquilo que acontece tanto, é reportado tanto, que se torna difícil de lidar caso a caso, e vira estatística.

    • A náusea do excesso de notícias virando estatística fria, descolada, pasteurizada, tediosa.

  • Efeito firehose:

    • “Firehose of Falsehood” Propaganda Model, Paul e Matthews (2016):

      • Conceituam para criticar a Rússia (típico em se tratando da RAND Corporation), mas esse tipo de modelo parece existir em todo lugar.
    • Em Ferreira (2024):

      O “efeito Firehose”: a criação de uma espiral interpretativa até o momento em que a diferença entre verdade e mentira desaparece.

  • “Alerta vermelho no ciberespaço”, Virilio (1995a) e Virilio (1995b):

    • Estamos em Agosto de 1995, e Paul Virilio acaba de publicar este pequeno grande comentário.

    • É um texto brilhante (perdoem a metáfora lumínica), e que cerca de 30 anos depois ainda é atualíssimo.

    • Vale fichá-lo, decupá-lo, comentá-lo.

    • Desde sua publicação, creio que conseguimos ir além e, ao contrário do que afirma Virilio, a informação sim é um problema tal como ela é conceituada e manipulada majoritariamente. Muitos dos problemas que ele elencam não são somente da computação, como da própria informação.

4.3.1.5 Infoluição

  • Computador como uma máquina de distrações.

  • “Data smog”.

  • Internet of Bodies:

    • Wearables:
      • “Alucinatron”: sonho de muitas empresas de entregar e extrair muitos Gbps direto nos nervos das pessoas.
  • Greenwashing:

  • Para Uma Teoria Geral da Poluição:

    • “Sick Planet”, Debord (2008).

    • A poluição opera contra corpos, entendamos corporalidade como quisermos: sejam corpos móveis (gentes), fixos (plantas, territórios), corpos d’água etc… ou enquanto “sistemas” (definição de sistema num outro trabalho).

    • Capacidade de carga e choque: excesso de informação como uma poluição que entope a capacidade de processamento de um corpo. Conceito de “Capacidade” em definição noutro lugar.

    • Sobrecarga: esgotamento da capacidade de carga.

  • Para Uma Teoria Geral do Lixo:

    • Para conhecer uma sociedade podemos analisar sua “cadeia de valor”, que podemos chamar também de “cadeia produtiva”, ou melhor até de fluxos de circulação. Seja na produção industrial valorizada, seja na produção de restos, de descarte. Quando só temos as sobras de sociedades passadas, a arqueologia é um único resgate possível.

    • O efeito finalista de qualquer sociedade do desperdício é a pilha de lixo. Não é o “objetivo” final da sociedade, mas o efeito final. Toda fábrica é uma fábrica de lixo no fim das contas. Se a teleologia desta sociedade equivalesse ao seus efeitos finais, então elas seriam basicamente uma fábrica de lixo sem propósito adicional.

    • Excesso num mar de lixo informacional. Baixo custo para o envio de mensagens. A queda de custos de tecnologia implica num aumento do lixo produzido por essa mesma tecnologia.

4.3.1.6 Infoguerra

  • Guerra e lixo:

    • Qualquer guerra produz não só vitórias e derrotas, como restos, cicatrizes, destroços, detritos…

    • Especialmente quando a guerra é de todos contra todos – não num estado de “natureza”, mas do conflito fomentado pelo próprio neo-hiper-turbo-liberalismo.

  • Resumir HFT.

  • Resumir o conceito de cismogênese e explicar que o termo “esquizogênese” usa a mesma raíz grega que cismogênese, mas na intenção de expressar um tipo de stasis que leva à destruição do outro.

  • “Information Bomb”, Virilio (2005), incluindo:

    • Menção a um dizer (apócrifo?) de Einstein sobre as três bombas: atômica, informacional e demográfica, Virilio (2005) págs. 112, 135.
  • “Bombas semiológicas”.

  • “2040: An Information Odyssey”, Matejic (2020).

  • Metadados: “matamos pessoas com metadados”.

  • O feedback negativo está associado à manutenção do controle e impedimento do desvio excessivo. No caso da informação como arma de guerra poluente, o objetivo é desarticular a capacidade dos oponentes (ou da sociedade em geral) de realizarem o feedback negativo, de tanta informação que recebem e não conseguem discernir/triar/organizar. Mas talvez seja melhor explicar, neste texto, sem utilizar o conceito de feedback, a ser introduzido futuramente noutro texto sobre cibernética. Feedback positivo pode crescer em excesso, criando uma situação de “runaway” (feedback positivo descontrolado, agradeço ao KK pela referência em mensagem de e-mail de Mon, 13 May 2024 15:48:11 -0300).

  • O Atraso das Centrífugas:

    • Países ditos “em desenvolvimento” (ou ditos “subdesenvolvidos”) muitas vezes optam por ignorar a propriedade intelectual de países “desenvolvidos”. A “pirataria” e a engenharia reversa são estratégias para equiparação industrial como modo de compensação de assimetrias coloniais e da extração de recursos.

    • É assim que ocorre uma permissividade dentro desses países para o download de conteúdo protegido por copyright. Livros, artigos científicos e outros estudos que antes somente estavam disponíveis para um público restrito teve seu acesso facilitado e com custo reduzido ou ínfimo.

    • Agora, as próprias empresas de países de desenvolvidos passam a ignorar o direito autoral ao produz imensas bases de dados para “treinamento de máquina” a partir de qualquer conteúdo que possa ser baixado – de sites na internet até bibliotecas.

    • Futuramente, é possível que um efeito composto disso seja a degradação do próprio conteúdo disponível gratuitamente, prejudicando o acesso a conhecimento em países “subdesenvolvidos”.

    • Na analogia entre informação e radiação, seria como um ataque das corporações e países “desenvolvidos” para “atrasas as centrífugas de enriquecimento informacional” dos países e empresas “subdesenvolvidos”.

4.3.1.7 Indigência Artificial

  • Sumário conciso da história da “IA”, Pasquinelli (2023) pág. 220.

  • “Inteligência” medida enquanto compressão implica na computação enquanto compactação de lixo informacional.

  • Conceito de raça como informação e tecnologia; transmissão de forma em Syed Mustafa Ali, T. Silva (2022) pág. 146.

  • Inteligência:

    • Indigência Artificial: o Lixo da Informação.

    • “IAs” e corrosão do que sobrou de democracia e livre escolha: conselho ao pé do ouvido de Platão, uma prescrição (“prescribe”) à cama de cada pessoa – parakathēmenos “at the bedside of” –, Castoriadis (2002)), dizer o quê cada um tem que fazer. Morte da política. Se isso era inviável naqueles tempos, a tecnologia das prescrições de futuro (agouritmos) aliada à conexão constante (“Internet of Bodies”) já permite que os conselhos do que fazer sejam prescritos a todos. Uma alegoria disso está no meu conto “Experiência de Usuário: Brasil 2029mg” (2019). Checar também anotações relacionadas em Rhatto (2024b).

    • Phronesis.

  • Treinamento:

    • Processos estocásticos: baseados em distribuições de probabilidades.

    • Um exemplo de “Inteligência Artificial” generativa enquanto um truque estocástico, contida na Teoria Shannoniana da Informação9. Retomada a partir da Seção ??.

    • Treinamento e poluição adversarial: escalada pela identificação de padrões dentre o lixo produzido tanto pelos inimigos quanto pela externalização de outras “IAs”: exponenciação da poluição, aumento do custo energético para triagem etc.

    • “Artificial Unintelligence: How Computers Misunderstand the World”,

      Broussard (2018).

    • Psicomática: neurologia gradualmente substituída pela Informática. Nervos como feixes de dados e neurônios como condutores de bits. Eletroeletrônica se baseando no conhecimento da neurologia para depois se refletir na construção de modelos para o próprio cérebro. “Redes neurais” são modelos informáticos.

    • “Inteligência de Negócios” (Business Intelligence), dispositivos “espertos” (smart), “sistemas cognitivos”… a inteligência está sendo usada para designar propriedades de aparelhos e serviços, e cada vez menos de pessoas.

  • Inclusão Digital:

    • População mundial, e quanto desta está “conectada”, isto é, “incluída” no mundo informacional? Quanto tempo ficam expostas, e qual a quantidade de dados que produzem e consomem?
  • “Anatomy of an AI System: The Amazon Echo As An Anatomical Map of Human Labor, Data and Planetary Resources”, Crawford e Joler (2018).

  • Campanhas de relações públicas ensinam a amar a bomba.

  • “Sorting Things Out: Classification and Its Consequences”, Bowker e Star (1999).

  • “Weapons of Math Destruction”, O’Neil (2016).

  • A ambiguidade da ofuscação como estatégia para minar o extracionismo de dados:

    • “Vernacular resistance to data collection and analysis: A political theory of obfuscation”, Brunton e Nissenbaum (2011).
  • Da ética dos dados à justiça dos dados, T. Silva (2022) pág. 172.

  • Apagões de dados e quebras das cadeias de custódia.

  • Nota e referência sobre o Demônio de Maxwell.

  • Nota e referência sobre o Teste de Turing.

  • Sergio Amadeu sobre a inescrutabilidade de algoritmos que nem mesmo os implementadores conseguem explicar, T. Silva (2022) pág. 174.

  • A ascensão do “aprendizado de máquina” não só como resposta à sobrecarga informacional como também ao aumento da dimensionalidade dos dados, Pasquinelli (2023) pág. 212.

  • É obsceno propalar pesquisas sobre “AGIs” enquanto a miséria devasta as inteligências já existentes.

  • Esse excesso de acúmulo de dados é um sintoma de que a sociedade em geral não sabe o que é importante preservar em termos de memória.

  • Efeito agregado de identificar mais facilmente os desvios relativos ao comportamento padrão.

  • Pessoas consumindo lixo informacional e “IAs” ingerindo o conteúdo de maior qualidade.

  • Roubo de dados:

    • O momento agora é de baixar todo o acervo de obras disponíveis, pois talvez daqu iuns dias seja difícil saber se a versão de uma obra foi gerada por “IA”… mas é esse próprio processo de baixar tudo que vai viabilizar a geração via “IA”! Impressionante como esse discurso de libertar os dados esteja produzindo a próxima iteração da distopia.

    • Este texto aqui talvez seja mais um “dataset” a ser ingerido por esse tipo de base de dados – à revelia da licença que escolhi para isso. Mesmo que este texto contenha opinião que fomente o contraditório, nessas bases, isso não afeta o sistema, que se beneficia inclusive da posse do contraditório.

    • O vazamentos (“leaks”) são diretamente afetados – as “IAs” ameaçam diretamente a capacidade de transparência e whistleblowing. Lembro de me questionar por exemplo se o Cablegate era de fato real ou não passava de um conjunto de documentos forjados… e um dos critérios pra acreditar que são reais era que ninguém em sã consciência investiria tempo e dinheiro pra gerar um fake daquele tamanho… esse critério já não vale…

    • A propriedade é um roubo. A propriedade intelectual sempre foi um roubo. Roubo de conhecimento puro e simples, privatização de pesquisa financiada com recursos público e por aí vai. Agora o roubo é baseado na ingestão de qualquer tipo de informação de qualquer procedência, para a construção de enormes bases de dados de inferência estatística.

    • Parece que cada mudança de paradigma/matriz produtiva está associada a roubos cumulativos: roubo de terra, de liberdade (escravidão), tempo de trabalho (na industrialização), de atenção/informação/dados etc. Como se sempre fosse, no fundo, acumulação primitiva de vários tipos.

  • A criação da necessidade, segundo Gorz e Schaffroth (2003c), Gorz e Schaffroth (2003a) e Gorz e Schaffroth (2003b):

    Global - O senhor vem criticando os “abre alas” da inteligência artificial e da vida artificial que preparam não mais uma sociedade do saber mas uma civilização pós-humana..

    Gorz - À custa de processos de pensamento não sensoriais e matemáticos, têm-se chegado a uma condição ambiental e a um tipo de vida que já não é, física e mentalmente, a medida do homem. Por isso os detentores do poder têm tido a necessidade de criar seres humanos mais eficientes. A loucura do poder econômico e militar e a obsessão eficientista criaram a necessidade de inteligência artificial, de máquinas humanas artificiais.

  • A criação da necessidade pelo desincentivo ao uso das próprias faculdades cognitivas: “IAs” produtoras de texto em alta velocidade, desincentivando pessoas a escrever. Quem não pratica, perde a prática: ao não escreverem, as pessoas perdem a prática de escrever com agilidade. Fica mais difícil de se expressar na forma escrita e em tempo hábil. A exigência pela produção de relatórios, peças publicitárias, comunicados etc impõe um ritmo difícil de acompanhar, e daí acabam recorrendo às “IAs” (necessidade via desincentivo cognitivo).

    • As pessoas são forçadas a produzir cada vez mais informação, e mais rápido. As “IAs” são máquinas de vomitar informação, e assim o mundo fica inundado de vômito, como é o caso do “ShitGPT”.

4.3.1.8 “Inteligência”

  • De Pasquinelli (2023):

    • Inteligência roubada dos empobrecidos, Pasquinelli (2023) Cap. 2 (teorias de Babbage).

    • “Inteligência” na Grã-Bretanha do século XIX, Pasquinelli (2023) pág. 75.

    • Mitologia e estupidização sobre “IA” operando ao lado do capital, Pasquinelli (2023) pág. 106.

    • “Inteligência Artificial” como apenas uma técnica de otimização computacional baseada em “força bruta”, Pasquinelli (2023) pág. 195; antropomorfizada como “inteligência estatística”, Pasquinelli (2023) pág. 202.

    • Ferramentas estatísticas virando o modelo para “inteligência”; psicométrica contribuindo para a metáfora do cérebro enquanto um computador do tipo turiniano, Pasquinelli (2023) pág. 206.

  • Os termos “Informação” e “Inteligência” não foram somente sequestrados várias vezes como estratégia mercadológica para a venda de tecnologias automatizadas. O sequestro também é semântico, adicionando camadas de colonização epistêmica às camadas já existentes.

  • “Psychology of Intelligence”, Piaget (2003).

  • “Inteligência e Realidade”, Zubiri (2011).

  • “Sentient Intelligence”, Zubiri (1999).

  • Os vários conceitos relacionados à inteligência/habilidade/etc, vide volume “Philo” do “Projeto Vertigem”.

  • Inteligência enquanto:

    • Artifício:

      • Inteligência enquanto artifício: do motor para o “abstrator”.

      • Os artefatos contém inteligência aplicada. A inteligência é um artifício que pode moldar conteúdos e operar situações, agindo e retroagindo.

    • Instrumento:

      • Inteligência enquanto instrumento (tocar um instrumento e ser por ele tocado).
    • Inteligência de acordo com Edgar Morin.

    • A concepção DIKW (Data, Information, Knowledge, Wisdom) e similares.

    • O ato do pessimismo (Gramsci); que podemos entender também como a análise de tudo o que pode “dar errado”, para que então pensamos em como fazer dar certo a despeito de tudo isso que pode “jogar contra”.

    • Lentidão rápida, festina lente, Maffei (2014b), Maffei (2014a).

    • Pensamento na interação entre áreas cerebrais, Maffei (2014a) pág. 104.

    • Rebelião, Maffei (2016).

  • Inteligência versus:

    • Inteligência versus razão instrumental: a “instrumentalização” num outro sentido: extração de valor a qualquer custo.

4.3.1.9 “Inteligência Artificial”

  • Segundo a Nahema durante sua defesa de doutorado, as “IAs” estão inseridas num “projeto leibiniziano de ‘liberar o juízo’”.

  • As chamadas “IA”s tem contribuído no reforço da psicologia behaviorista como emanadora da verdade completa sobre o humano.

  • “IA não é inteligência e sim marketing para explorar trabalho humano, diz Nicolelis”, Nicolelis e Teixeira (2023). Inclui trechos interessantes a serem selecionados.

  • “O problema das outras mentes: uma antropologia das inteligências artificiais”, Pereira (2021).

  • “A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going”, Wooldridge (2021).

  • Dreyfus: discutir aqui ou mover para mais adiante?

    • Alchemy and Artificial Intelligence, Dreyfus (1965).

    • What Computers Can’t Do: The Limits of Artificial Intelligence,

      Dreyfus (1978).

  • “A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going”, Wooldridge (2021).

  • Matteo Pasquinelli:

    • Three Thousand Years of Algorithmic Rituals: The Emergence of AI from the Computation of Space, Pasquinelli (2019)

    • “The Eye of the Master: A Social History of Artificial Intelligence”, Pasquinelli (2023), incluindo:

      • Digitalização e compressão do trabalho, impressão inicial sobre Pasquinelli (2023).
    • Mapa da “inteligência maquínica”, Pasquinelli (sd).

  • “Inteligência artificial” não existe, Julia (2019).

  • Phronesis:

    • “Inteligência” artificial só é inteligência por uma questão agourtítimca: a definição de inteligência é adaptada para englobar o objeto técnico. É a auto-realização profética da inteligência que reproduz a crença da sua realidade pela construção da realidade “aumentada” mas que de fato é reduzida de variedade e diferença.

    • Mas não possui phronesis, o julgamento não-turiniano.

    • Turiniano versus phronético.

  • “Superintelligence: paths, dangers, strategies”, Bostrom (2014).

  • “Whole Brain Emulation - A Roadmap”, Sandberg e Bostrom (2008).

  • “O Teste de Turing e a Tomada de Consciência - Anotações”, Rhatto (2012).

  • “A inteligência artificial: mito ou realidade”, parte final de Pessis-Pasternak (1993) pags. 191-259.

4.3.1.10 A Estupidez Artificial

  • Dos agouritmos, Estupidez Artificial, Redes Neuróticas e Adestramento de Máquina.

  • Filme “The Zero Theorem” (2013), de Terry Gilliam: “I crunch entitities”.

  • Pra corrigir o glossário da novilínguia neoliberal: estupidez artificial (demência natural), redes neuróticas, agouritmos, adestramento de máquina.

  • Considerando nossa observação de que toda inteligência é artificial, isto é, a inteligência é um artifício.

  • O que consideraremos como Inteligência está relacionada à phronesis – conforme discussão de Castoriadis (2002) – e também às capacidades criativas e afetivas que não são Turing-computáveis.

  • LGPD e decisão automatizada (artigo 20 parágrafo 1), diferente da GDPR.

  • Levantamento das IA(s) em uso pelo governo.

  • Detalhamento sobre a(s) IA(s) do CyberSNI10.

  • I.A: máquinas utilitaristas - inteligência utilitarista.

  • “Google And The World Brain” (2013).

  • Os Agouritmos:

    • Algoritmo de distribuição de processos no STF: um anti-kleroterion.

    • Agourismo e Simulação: Especulação: Ficção Científica e Mercados de Futuros.

  • Espiral da Diminuição da Realidade:

    • Sombra da experiência humana “treinando” máquinas.

    • Máquinas conduzindo o comportamento das pessoas a partir desta “experiência” adquirida.

    • Aquilo que é “humanidade” convergindo para um intervalo existencial muito estreito, assim como as concepções de “realidade”.

    • “Alleys of Your Mind: Augmented Intelligence and Its Traumas”,

      Pasquinelli (2015).

  • Trocando “inteligência” por “sofrimento” a questão mudaria? Em termos de separação, alguns seres seriam desprovidos de qualquer direito enquanto outros teriam todos.

  • No plano do governo, antropomorfiza-se a questão da inteligência: o governo fornece o intelecto que mobiliza a máquina Estatal; porém não precisamos necessariamente explicar as propriedades emergentes de sistemas coletivos como uma “inteligência coletiva”; as emergências de configurações coletivas por si mesmas não indicam que estas possuem intelecto e compõem uma mente.

  • Mito da Caverna de Platão à invertida, onde opera-se a redução do real:

    • Os vultos da experiência humana são as sombras da caverna projetadas no “treinamento de máquina”. Num jogo de espelhos distorcidos, estas sombras são projetadas numa caverna interior, onde o que sobrar da humanidade estará aprisionada.

    • A quantidade de cavernas separando o real da imagem será desconhecido.

    • Possivelmente, não há “real”, e sim um conjunto de cavernas uma dentro das outras, sendo que a “última” caverna nada mais seria do que o exterior da “primeira” caverna, num ciclo infernal de (re-)projeção e distorção de sombras.

  • Teste de Durkheim:

    • “The Structure of Ill-Structured Solutions: Boundary Objects and Heterogeneous Distributed Problem Solving”, Star (1989).

    • Um blockbuster com esse tema… “Eagle Eye”, onde uma “IA” do Pentágono criada pra monitorar ameaças decide fazer um golpe de estado nos EUA, limando todo o primeiro escalão e só deixando o secretário de defesa pra ser o novo presidente… ela decide isso com base na incapacidade do governo de minimizar vítimas e fazer boas escolhas… poderia argumentar que essa I/A passou no teste de Durkheim?

  • As “big techs” e a monopolização da “inteligência”. São as inimigas tanto do intelecto quanto da inteligência geral.

  • “Máquinas Automágicas: trabalho, mente estendida e subjetividade sob o fetiche da mercadoria”, Nascimento Gonçalves (2023).

  • “The Coming Wave”, Suleyman (2023).

  • Centro de Estudos Analytics e Políticas de Segurança (FGV-SP, SSP-SP e USP), “para acelerar o uso de dados e inteligência artificial na tomada de decisões em segurança pública”:

    Lançamento do Centro de Estudos Analytics e Políticas de Segurança

    Convidamos você para o lançamento do FGV Analytics, um centro de estudos criado pela Escola de Administração de Empresas de São Paulo da Fundação Getulio Vargas (FGV EAESP), a Secretaria de Segurança Pública do Estado de São Paulo (SSP-SP) e a Universidade de São Paulo (USP), com financiamento da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), para acelerar o uso de dados e inteligência artificial na tomada de decisão em segurança pública. O evento será realizado das 9h às 13h, no dia 17 de agosto, no Auditório FGV 9 de Julho.

    Confira a programação:

    • Apresentação do FGV Analytics; • Apresentação de iniciativas que possibilitam o uso de dados e tecnologia na tomada de decisão em segurança pública; • Perspectivas sobre análise de dados e IA na segurança; • Ato de solenidade com autoridades e representantes das instituições envolvidas no convênio para marcar o lançamento oficial do centro.

    Data e 17/08, quinta Auditório FGV 9 de Julho Horário 9h às 13h Rua Itapeva, 432 – São Paulo

    PARTICIPANTES

    João Becker Coordenador do FGV Analytics

    Joana Monteiro (FGV), Eduardo Rezende (FGV), Leandro Piquet (USP) e Roberto Speicys (USP) Pesquisadores principais

    Fábio Bechara Promotor de Justiça do Ministério Público de São Paulo

    João Henrique Martins Coordenador do Centro Integrado de Comando e Controle (CICC SSP)

    Luiz Artur Ledur Brito Diretor da FGV EAESP

    Carlos Ivan Simonsen Presidente da FGV

    Pedro B. Abreu Dallari Diretor do Instituto de Relações Internacionais da USP

    Marco Antonio Zago Presidente da FAPESP

    Guilherme Derrite Secretário de Segurança Pública

    Tarcísio de Freitas Governador de São Paulo

    Inscrições: https://bit.ly/3OBOtGO

  • Automatismo, artificialização e desinteligencialização:

    • “Inteligência Artificial” como eufemismo para “trabalho não-remunerado”.

    • “Automático” como eufemismo para “trabalho terceirizado e precarizado”.

    • “Automatização” e “artificialização” da “inteligência” então como bombas semiológicas para externalização dos custos, aumento de lucros e retirada do “trabalho vivo” da jogada.

4.3.1.11 Infocapitalização

  • Definição de informação de Hayek, Pasquinelli (2023) pág. 178.

4.3.1.12 Infopocalipse

  • Bomba:
    • Toda a bomba tem sua bolha: a bomba dispara, a bolha estoura e ficam os escombros.

    • Bomba de Turing (Enigma), nos sentidos de quebrar, mas também de bombear.

  • Guerra:
    • “Punição coletiva”.

    • “O mundo como alvo”, Arantes (2019).

    • “Teoria do drone”, Chamayou (2015).

  • Apocalinfo:
    • “The Human-Machine Team: How to Create Synergy Between Human & Artificial Intelligence That Will Revolutionize Our World”, Sariel (2021).

    • O cenário da OTAN para os anos de 2040: “2040: An Information Odyssey”, Matejic (2020).

    • “Singularidade” Informacional: sem condições de distinguir se conteúdos gerados são fantasiosos.

  • Palestina:
    • Mais sobre “The Palestine Laboratory: How Israel Exports the Technology of Occupation around the World”, Loewenstein (2023).

    • Gaza 2023-2024:

      • Mapa de Gaza: https://commons.wikimedia.org/wiki/File:Mapa_da_Faixa_de_Gaza.svg

      • “Levelling down”.

      • Memória e informação:

        • Arquivo da cidade de Gaza destruído.

        • Jornalistas assassinados, inclusive em ataques direcionado por drone (vide o caso de Samer Abudaqa).

      • Relatório “Israel’s Surveillance Industry and Human Rights: Impact on Palestinians and Worldwide”, The Arab Center for the Advancement of Social Media (2023).

      • Texto mencionado pelo Henrique sobre “você não vai ver um cogumelo nuclear”.

  • “Rebirth of Epimethean Man”, Illich (1973):
    • Paralelo da alegoria da “forma” e da “informação” vindas do fogo, e voltando para ele.
  • Colapsos:
    • Colapso de Modelo (“model collapse”), o que ocorre por exemplo quando uma “IA” é “treinada” por outra “IA” (ou quando uma treina a outra). De modo que as “IAs” dependem de fontes de informação não poluídas por outras “IAs”. Dependem de conteúdo gerado por humanos.

    • Colapso em direção ao “Genérico”:

      • Geral genérico, gene, geração, degeneração. Colapso dos modelos. “Pureza” é “degeneração”.

      • Genérico e monocultivo.

    • Colapsos e falsificações: exemplo de produção de conteúdos falsos:

      • Obras de Karl Marx deturpadas para vieses neoliberais.
    • Assim, o motor gira em falso… na autofagia própria deste sistema: poluem o mundo com lixo informacional, mas dependem de uma fonte informacional externa pra alimentar os modelos deles… o lixo vai aumentando, requerendo crescente infraestrutura computacional para separar o lixo do não-lixo, isto é, do que tem algum valor.

4.3.1.13 Desinformação

  • Dependendo de como problematizarmos, cairemos nas tais “escolhas infernais” (exemplo: pensar em “IA” decolonial versus rechaçar completamente a tecnologia). Vale reformular, ou quebraremos nossos dentes durante os pesadelos intercalados pela insônia. É importante pensar criticamente sobre toda essa tranqueira. Com isso dá pra calibrar melhor os raciocínios e não cair no totalmente em mais um sequestro de pauta. Não dá pra fugir do debate sobre “IA” – até porque somos cobaias involuntárias desse experimento traiçoeiro. Mas também não dá pra ficar na paralisia ou só pensar nas margens de negociação. Para em seguida pensar nas alternativas.

  • Desconexão:

    • “How to Do Nothing: Resisting the Attention Economy”, Odell (2019).

    • Desintensificação.

  • Reconexão:

    • Internet é o primeiro tambor (TC Silva).

    • “Critica de la comunicación”, Lucien (1995).

    • “We Need To Rewild The Internet”, Farrell e Berjon (2024b) e Farrell e Berjon (2024a).

    • Mencionar arranjos e redes alternativas de comunicação e organização.

    • Incorporar trechos da fala ~/file/textos/content/drafts/politics/bifurcacao.md?

    • Coreografia, corpo e presença.

    • Improviso (sugestão da Alana).

    • Não podemos deixar que a escrita, a leitura, o desenho e outras performances sejam desvalorizadas e tornadas obsoletas. O exercício de composição e a contemplação apreciativa são atividades fundamentais para a inteligência coletiva.

    • O conceito de “Little Data”:

      • Acervos pessoais e coletivos dentro da escala humana.

      • Coletas comunitária de dados como autodefesa e melhora das condições de vida.

  • Alvíssaras:

    • “Ninguém ama o portador de más notícias”, atribuído a Sófocles em (brooks2009?) pág. 147. Na página anterior, escultura de Hércules matando o mensageiro Licas.

    • As “boas notícias” que são más. Exemplo na entrevista de Brenda Flores em Falleiros (2024): pessoas preferindo vídeos de perspectivas otimistas de uma realidade que é péssima.

  • Malatesta sobre controle e topologia informacional populares, evitando assim os serviços secretos11:

    Precisamos estar relacionados com os camaradas das outras localidades, receber e dar notícias, mas não podemos todos nos correspondermos com todos os camaradas. Se estamos organizados, encarregamos alguns camaradas de manter a correspondência por nossa conta; trocamo-os se eles não nos satisfazem, e podemos estar informados sem depender da boa vontade de alguns para obter uma informação. Se, ao contrário, estamos desorganizados, haverá alguém que terá os meios e a vontade de corresponder; ele concentrará em suas mãos todos os contatos, comunicará as notícias como bem quiser, a quem quiser. E se tiver atividade e inteligência suficientes, conseguirá, sem nosso conhecimento, dar ao movimento a direção que quiser, sem que nos reste a nós, a massa do partido, nenhum meio de controle, sem que ninguém tenha o direito de se queixar, visto que este indivíduo age por sua conta, sem mandato de ninguém e sem ter que prestar contas a ninguém de sua conduta.

4.3.1.14 Oclusão

  • Próximos passos intencionados para a pesquisa.

  • Invariância: forma e informação enquanto controle (na tradição ocidental majoritária).

  • Quadro conceitual:

      Ignismo                Iluminismo     Hiperluminismo
      Forma -> Informação -> Estatística -> Indigência Artif.
                             Notícia        Neocolonialismo
                             Dados          Vigilância
                                            Racismo algor.
                                            Poluição
                                            Guerra
                                            Bomba

4.3.2 Menos prioritários

4.3.2.1 Introdução

  • Crítica precisa ser dura, mas isso não quer dizer que ela deva ofender as pessoas.

4.3.2.2 Formação

  • Sobre a oposição entre “forma” e “conteúdo”.

4.3.2.3 Historização

  • Tratar mais da influência pitagórica nas teorias/doutrinas das formas.

  • Informação seria parte da “fruta proibida” de um cosmogonia ocidental? Mas “informação” não é exatamente “conhecimento” por não encerrar todas as perspectivas do conhecer.

  • A seguir, a Teoria da Comunicação Hackeada.

  • Informação como seleção de possibilidades12.

  • Educação (informação) das regras morais e leis de um Estado em Cícero13.

  • Resumo sobre a ideia aristotélico-escolástica de informação, incluindo a individuação14.

  • “How Data Happened”, Wiggins (2022).

  • “The Information Bandwagon”, in Kline (2015) Cap. 4.

4.3.2.4 Engolfamento

  • Imprensa, impressa ou não, cada vez com mais pressa.

  • “Overload! How too much information is hazardous to your organization”, Spira (2011).

  • “InfoGlut: How Too Much Information Is Changing the Way We Think and Know”, Andrejevic (2013).

  • O conceito de “atualidades”: saber o que está ocorrendo por aí.

4.3.2.5 Esgotamento

  • Nota sobre a Técnica Ludovico.

4.3.2.6 Metrificação

  • Discreto (e discrição), analógico e digital, Falleiros (2024) págs. 121-122.

4.3.2.7 Lixificação

  • Reprodutibilidade:
    • A “aura” e reprodutibilidade técnica (Benjamin).

4.3.2.8 Concentração

  • “Metric Power”, Beer (2016).

  • Talvez para um apêndice: permaneço com uma série de perguntas de pesquisa, e ambíguo quanto a querer respondê-las: por mais que a curiosidade seja grande, trata-se de um conhecimento que só um sistema de vigilância global muito mais invasivo que os de hoje poderia acessar. A mera inferência parece insuficiente para saber o que segue; as peguntas ao menos ajudam a entender como as estimativas atuais da “datasfera” são limitadas:

    • Qual é a quantidade de dados que permanece armazenada de um ano para outro, isto é, que é transmitida para o futuro?

    • Qual é a quantidade de dados gerados num ano mas que não são armazenados, isto é, informações transientes?

    • Qual é a quantidade de dados únicos, isto é, sem dupla contagem?

    • Qual é a razão entre a quantidade de dados e a quantidade de dados únicos?

    • Qual é quantidade de dados que apagados num dado ano?

    • Qual é quantidade de dados que corresponde ao tráfego de dados, e o quanto disso é “payload” efetivo, isto é, mensagem para consumo final?

    • Qual é a quantidade de dados correspondente a comando e controle, isto é, que corresponde a transações negociais entre sistemas etc?

    • Deste total de dados produzidos, o que é efetivamente usado por pessoas?

    • Qual será o tamanho do depósito de lixo informacional, em zettashits?

    • O quanto de informação uma pessoa está sujeita, em média?

    • Onde esses dados são armazenados? Tendência à concentração em silos.

    • Temos algum motivo para acreditar que toda essa quantidade de informação necessariamente contribuirá com um mundo mais justo, equânime, com a democracia etc?

    • Qual o tamanho deste texto, que não pára de se alongar?

4.3.2.9 Infoluição

4.3.2.10 Infoguerra

  • Infoguerra, bomba informacional e “media fallout”:
    • Baudrillard (1994), especialmente o Cap. “The implosion of meaning in the media”.
    • “Understanding Media: The Extensions of Man”, McLuhan e Lapham (1994) pág. 305.

4.3.2.11 Indigência Artificial

  • Dados, informação, desinformação:
    • Dataclisma.
    • “We Are Bellingcat: An Intelligence Agency for the People”, Higgins (2022), incluindo:
      • Cap. 3, sobre desinformação.
      • Cap. 5, sobre “AI”.
  • Máquinas na mente, Cauquelin (2023), incluindo:
    • Informação/comunicação e “doxa técnica”, Cauquelin (2023) págs. 77-96.
    • Máquinas na mente: comedoras de cérebro?
    • Obsolescência de conteúdos (selecionar trecho), Cauquelin (2023) págs. 179-180.
    • Dados pessoais que “nunca foram dados, mas captados”, Cauquelin (2023) pág. 192 nota de rodapé 6.
    • Paradoxo da comunicação e da memória/esquecimento, Cauquelin (2023) pág. 192.
    • Digital e/em ruínas, Cauquelin (2023) págs. 223-226.
    • Enganação da “com.”, Deus de Feuerbach (selecionar trecho), Cauquelin (2023) págs. 182-183.
  • A constante febre de Hans Carstorp culmina com sua ida à guerra.

4.3.2.12 Infocapitalização

  • Grande Outro: “Big other: surveillance capitalism and the prospects of an information civilization”, Zuboff (2015).
  • Informática impulsionando a financeirização e securitização das relações humanas.

4.3.2.13 Desinformação

  • Tempo e aceleração:
    • Festina lente, Maffei (2014a): tartaruga com implante ciborgue para acelerar diferenciadamente. Muitos seres humanos de hoje necessitando de implantes para desacelerar – como a lebre com carapaça de caramujo – ao passo que os sistemas computacionais estão fazendo exatamente o contrário.
    • Filme “In time” como alegoria do processo de corrida contra o tempo, e disponibilidade do tempo sem trabalho como privilégio; tempo de trabalho como um desprivilégio.
  • As pessoas são plenamente capazes de pensar por si próprias, mas o ruído informacional e a criação de pautas e consensos é tão forte que fica difícil enunciar um pensamento próprio.
  • Fundamental que existam alternativas para outros tipo de inclusão social e que sejam efetivamente inclusivos.
  • Ruído:
    • Ruído e cancelamento.
  • Desconexão:
    • “Network”: “trabalho em rede”: conexão constante que não necessariamente significa valor gerado constantemente para quem trabalha, mas sim disponibilidade constante para alguém ser sujeitada à exploração.
    • A busca pelo privilégio da desconexão: poder escolher quando se desconectar.
    • Outro dia enviei uma mensagem para alguém, dizendo que iria “entrar offline aqui”, e notei o quanto houve uma inversão na situação, já que antigamente entrávamos online. Hoje precisamos “sair” do “on”.
    • Filme “Disconnect” (2012).
    • Documentário “Lo and Behold, Reveries of the Connected World” (2016).
  • Despoluição:
    • Sugestão não muito rígida: princípio econômico de começar por despoluir aquilo que polui mais; e que seja mais fácil de despoluir.
  • “Ética Informacional” (Floridi); “justiça informacional”15.

4.3.3 Miscelânea

  • Relação entre onisciência e onipotência (texto do Tulio Vianna etc)?

  • Triagem na pasta ~/data/doc/triage.

  • Vigilâdia, a terra da vigilância.

  • Será que ainda existe, ou conseguimos imaginar, um lugar onde não chegam notícias?

  • Energia e Informação: se você aceita que essas duas grandezas metafísicas existem: são os combustíveis da Computação entendida da forma majoritária.

  • Formações intensas via software – que podemos entender como “ferramenta” maleável e de alta plasticidade, mas de difícil manutenção e facilmente quebrável: maleabilidade da intensificação de formas: processos industriais, impressão 3D etc.

  • “Geontologias: Um réquiem para o liberalismo tardio”, Povinelli (2023), em especial o Cap. 6 “O download do sonhar” (dica da Alana).

  • Má gestão da memória coletiva.

  • Incineração do planeta.

  • “Elogio della ribellione”, Maffei (2016).

4.3.4 Referências

Conteúdo de referência, para triagem etc.

4.3.4.2 Dados

4.3.4.3 Informação

4.3.4.5 Explosão informacional

4.3.4.7 Poluição

4.3.4.8 “Inteligência Artificial”

4.3.4.10 Apocalipse

Bibliografia

Andrejevic, Mark. 2013. InfoGlut: How Too Much Information Is Changing the Way We Think and Know. Routledge.
Arantes, Paulo. 2019. O mundo como alvo. https://doi.org/10.34024/9786500265262.
Baudrillard, Jean. 1994. Simulacra and Simulation. University of Michigan Press.
Beer, David. 2016. Metric Power. Palgrave Macmillan UK.
Bostrom, Nick. 2014. Superintelligence: paths, dangers, strategies. First edition. Oxford University Press.
Bowker, Geoffrey C., e Susan Leigh Star. 1999. Sorting Things Out: Classification and Its Consequences. Inside Technology. MIT Press.
Broussard, Meredith. 2018. Artificial Unintelligence: How Computers Misunderstand the World. Artificial Unintelligence. MIT Press Ltd.
Brunton, Finn, e Helen Nissenbaum. 2011. “Vernacular resistance to data collection and analysis: A political theory of obfuscation”. First Monday 16 (5). https://doi.org/10.5210/fm.v16i5.3493.
Capurro, Rafael. 2022. Información: Contribución a una fundamentación del concepto de información basada en la etimología y la historia de las ideas. Ápeiron Ediciones. http://www.capurro.de/info.html.
Castoriadis, Cornelius. 2002. On Plato’s "Statesman". 1st ed. Meridian: Crossing Aesthetics. Stanford University Press.
Cauquelin, Anne. 2023. As máquinas na mente. Traduzido por Laurent de Saes. Martins Fontes.
Chamayou, Grégoire. 2015. Teoria do Drone. Coleção Exit. Cosac & Naify.
Crawford, Kate, e Vladan Joler. 2018. “Anatomy of an AI System: The Amazon Echo As An Anatomical Map of Human Labor, Data and Planetary Resources”. AI Now Institute; Share Lab. https://anatomyof.ai.
Damerow, Peter. 1996. Abstraction and Representation: Essays on the Cultural Evolution of Thinking. 1º ed. Boston Studies em the Philosophy of Science 175. Springer Netherlands.
Debord, Guy. 2008. Sick Planet. Traduzido por Donald Nicholson-Smith. Seagull Books.
Dreyfus, Hubert L. 1965. Alchemy and Artificial Intelligence. RAND Corporation. https://www.rand.org/pubs/papers/P3244.html.
———. 1978. What Computers Can’t Do: The Limits of Artificial Intelligence. Rev Sub. Harpercollins.
Drucker, Johanna. 2011. “Humanities Approaches to Graphical Display”. DHQ: Digital Humanities Quarterly 5 (1). http://www.digitalhumanities.org/dhq/vol/5/1/000091/000091.html.
Falleiros, Nahema Nascimento. 2024. “Máquinas aprendizes; humanos atarefados. Inteligência artificial e trabalho alienado no "capital-informação"”. Tese de doutorado.
Farrell, Maria, e Robin Berjon. 2024a. “Internet: a alternativa Refloresta”. https://outraspalavras.net/tecnologiaemdisputa/internet-a-alternativa-refloresta/.
———. 2024b. “We Need To Rewild The Internet”. https://www.noemamag.com/we-need-to-rewild-the-internet/.
Ferreira, Wilson Roberto Vieira. 2024. “A alopragem política da Folha e as estratégias de comunicação ’alt-right’”, agosto. http://cinegnose.blogspot.com/2024/08/a-alopragem-politica-da-folha-e-as.html.
Gitelman, Lisa. 2013. "Raw Data" Is an Oxymoron. Infrastructures. The MIT Press.
Gitelman, Lisa, e Virgina Jackson. 2013. Data before the Fact. In "Raw Data" Is an Oxymoron - Introduction. Infrastructures. The MIT Press.
Glare, P. G. W. 1968. Oxford Latin Dictionary. Clarendon press.
Gorz, André, e Thomas Schaffroth. 2003a. “Entrevista com André Gorz”. Traduzido por Leonora Corsini. https://web.archive.org/web/20041014164322/https://www.globalproject.info/art-1801.html.
———. 2003b. “Fichamento: Entrevista com André Gorz”. Traduzido por Leonora Corsini. https://sarava.fluxo.info/Fichamentos/EntrevistaAndreGorz.
———. 2003c. “Wissen, Wert, Kapital”. Die Wochenzeitung. http://www.vordenker.de/downloads/gorz_wissen-wert-kapital_interview-woz_jun-03.pdf.
Higgins, Elliott. 2022. We Are Bellingcat: An Intelligence Agency for the People. Bloomsbury Publishing.
Hoad, T. F. 2002. The Concise Oxford Dictionary of English Etymology. Oxford University Press.
Illich, Ivan. 1973. Rebirth of Epimethean Man. Penguin Education. https://archive.org/details/730131-deschooling-society-by-illich-1973/.
Julia, Luc. 2019. L’intelligence artificielle n’existe pas. First.
Kline, Ronald R. 2015. The Cybernetics Moment: Or Why We Call Our Age the Information Age. 1º ed. New Studies em American Intellectual e Cultural History. Johns Hopkins University Press.
Lavin, Matthew. 2021. “Why Digital Humanists Should Emphasize Situated Data over Capta”. DHQ: Digital Humanities Quarterly 15 (2). http://www.digitalhumanities.org/dhq/vol/15/2/000556/000556.html.
Lisa Parks, Nicole Starosielski. 2015. Signal Traffic: Critical Studies of Media Infrastructures. The Geopolitics of Information. University of Illinois Press.
Loewenstein, Antony. 2023. The Palestine Laboratory: How Israel Exports the Technology of Occupation around the World. Scribe Publications.
Lucien, Sfez. 1995. Critica de la comunicación. Amorrortu Editores.
Maffei, Lamberto. 2014a. Elogio da lentidão. Edições 70.
———. 2014b. Elogio della lentezza. Voci. Il Mulino.
———. 2016. Elogio della ribellione. Voci. Il Mulino.
Matejic, Nicole. 2020. “2040: An Information Odyssey”. https://www.innovationhub-act.org/sites/default/files/2020-06/2040\%20An\%20Information\%20Odyssey.pdf.
McLuhan, Marshall, e Lewis H. Lapham. 1994. Understanding Media: The Extensions of Man. The MIT Press.
Nascimento Gonçalves, Luis Henrique do. 2023. “Máquinas Automágicas: trabalho, mente estendida e subjetividade sob o fetiche da mercadoria”. Tese de doutorado, PUC-SP. https://www.dropbox.com/s/k7o8poow8ttr60f/TESE\%20-\%20M\%C3\%A1quinas\%20Autom\%C3\%A1gicas\%20-\%20Luis\%20Gon\%C3\%A7alves.pdf?dl=0.
Nicolelis, Miguel, e Pedro S. Teixeira. 2023. “IA não é inteligência e sim marketing para explorar trabalho humano, diz Nicolelis”. https://www1.folha.uol.com.br/tec/2023/07/ia-nao-e-inteligencia-e-sim-marketing-para-explorar-trabalho-humano-diz-nicolelis.shtml.
O’Neil, Cathy. 2016. Weapons of Math Destruction. 1º ed. Crown Publishers.
Odell, Jenny. 2019. How to Do Nothing: Resisting the Attention Economy. Hardcover. Melville House.
Onions, C. T. 1966. The Oxford Dictionary of English Etymology. Oxford University Press.
Pasquinelli, Matteo. sd. “The Evolution of Machinic Intelligence”. https://www.academia.edu/15275569/The_Evolution_of_Machinic_Intelligence_map_.
———. 2015. Alleys of Your Mind: Augmented Intelligence and Its Traumas. Meson Press.
———. 2019. “Three Thousand Years of Algorithmic Rituals: The Emergence of AI from the Computation of Space”. e-flux. https://www.e-flux.com/journal/101/273221/three-thousand-years-of-algorithmic-rituals-the-emergence-of-ai-from-the-computation-of-space.
———. 2023. The Eye of the Master: A Social History of Artificial Intelligence. Verso.
Paul, Christopher, e Miriam Matthews. 2016. “The Russian "Firehose of Falsehood" Propaganda Model: Why It Might Work and Options to Counter It”. https://doi.org/10.7249/pe198.
Pereira, Rafael Damasceno Ramalho. 2021. “O problema das outras mentes: uma antropologia das inteligências artificiais”. Tese de doutorado, Museu Nacional - UFRJ. http://objdig.ufrj.br/72/teses/912111.pdf.
Pessis-Pasternak, Guitta. 1993. “Do Caos à Inteligência Artificial”. In. Ed. UNESP.
Piaget, Jean. 2003. Psychology of Intelligence. 2nd Revised edition.
Povinelli, Elizabeth. 2023. Geontologias: Um réquiem para o liberalismo tardio. 1º ed. Ubu Editora.
Rhatto, Silvio. 2012. “O Teste de Turing e a Tomada de Consciência - Anotações”. https://blog.fluxo.info/events/2012/cteme/.
———. 2024b. Máquinas de Estado: Serviço Secreto, Tortura e Golpes. Publicações Vertiginosas. https://cybersni.fluxo.info.
Rosenberg, Daniel. 2013. Data before the Fact. In "Raw Data" Is an Oxymoron. Infrastructures. The MIT Press.
———. 2018. “Data as Word”. Historical Studies in the Natural Sciences 48: 557–67. https://doi.org/10.1525/hsns.2018.48.5.557.
Ruiz, Sandra, e Hypatia Vourloumis. 2021. Formless Formation: Vignettes for the End of this World. Minor Compositions. Autonomedia. https://www.minorcompositions.info/?p=1026.
Sandberg, Anders, e Nick Bostrom. 2008. “Whole Brain Emulation - A Roadmap”. Technical Report. Future of Humanity Institute, Oxford University. http://www.fhi.ox.ac.uk/brain-emulation-roadmap-report.pdf.
Santos, Laymert Garcia dos. 2003. “A informação após a virada cibernética”. In Revolução Tecnológica, Internet e Socialismo, 9–33. Socialismo em Discussão. Fundação Perseu Abramo. https://bibliotecadigital.fpabramo.org.br/xmlui/bitstream/handle/123456789/286/revolucao_tecnologica_internet_e_socialismo.pdf.
Sariel, Yossi. 2021. The Human-Machine Team: How to Create Synergy Between Human & Artificial Intelligence That Will Revolutionize Our World. eBookPro Publishing.
Shannon, Claude E. 1948. “A Mathematical Theory of Communication”. Bell System Technical Journal 27 (3): 379–423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x.
Shannon, Claude E., e Warren Weaver. 1963. The Mathematical Theory of Communication. University of Illinois.
Shehabi, Arman, Sarah Smith, Dale Sartor, Richard Brown, Magnus Herrlin, Jonathan Koomey, Eric Masanet, Nathaniel Horner, Inês Azevedo, e William Lintner. 2016. “United States Data Center Energy Usage Report”. https://eta.lbl.gov/publications/united-states-data-center-energy.
Silva, Tarcízio. 2022. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. 1º ed. Edições Sesc SP. https://portal.sescsp.org.br/loja/11645_RACISMO+ALGORITMICO+INTELIGENCIA+ARTIFICIAL+E+DISCRIMINACAO+NAS+REDES+DIGITAIS#.
Simondon, Gilbert. 2020. A Individuação à Luz das Noções de Forma e de Informação. 1º ed. Coleção Trans. Editora 34. https://www.editora34.com.br/detalhe.asp?id=1049.
Spira, Jonathan B. 2011. Overload! How too much information is hazardous to your organization. 1º ed. Wiley.
Star, Susan Leigh. 1989. “The Structure of Ill-Structured Solutions: Boundary Objects and Heterogeneous Distributed Problem Solving”. In Distributed Artificial Intelligence, 37–54. Elsevier. https://doi.org/10.1016/b978-1-55860-092-8.50006-x.
Suleyman, Mustafa. 2023. The Coming Wave. Crown.
Swartz, Aaron. 2006. “I Hate the News”, outubro. http://www.aaronsw.com/weblog/hatethenews.
The Arab Center for the Advancement of Social Media, 7amleh -. 2023. “Israel’s Surveillance Industry and Human Rights: Impact on Palestinians and Worldwide”. 7amleh - The Arab Center for the Advancement of Social Media. https://7amleh.org/2023/12/19/7amleh-center-issues-a-report-on-israel-s-surveillance-industry-and-its-impact-on-human-rights.
Thompson, Neil C., Kristjan Greenewald, Keeheon Lee, e Gabriel F. Manso. 2021. “Deep Learning’s Diminishing Returns: The cost of improvement is becoming unsustainable”, setembro. https://spectrum.ieee.org/deep-learning-computational-cost.
———. 2022. “The Computational Limits of Deep Learning”. https://arxiv.org/abs/2007.05558.
Triclot, Mathieu. 2008. Le moment cybernétique: la constitution de la notion d’information. Champ Vallon.
Unidas, Nações. sd. “United Nations Global Principles For Information Integrity Recommendations for Multi-stakeholder Action”. https://www.un.org/sites/un2.un.org/files/un-global-principles-for-information-integrity-en.pdf.
———. 2023. “Information Integrity on Digital Platforms”. https://www.un.org/sites/un2.un.org/files/our-common-agenda-policy-brief-information-integrity-en.pdf.
———. 1995a. “Alerte dans le cyberespace!” Le Monde Diplomatique. https://www.monde-diplomatique.fr/1995/08/VIRILIO/6578.
———. 1995b. “Red alert in cyberspace!” Radical Philosophy. https://www.radicalphilosophy.com/commentary/red-alert-in-cyberspace.
———. 2005. Information Bomb. Radical Thinkers. Verso. https://archive.org/details/VirilioInformationBomb.
Vopson, Melvin M. 2021. “The world’s data explained: how much we’re producing and where it’s all stored”. https://theconversation.com/the-worlds-data-explained-how-much-were-producing-and-where-its-all-stored-159964.
Wark, McKenzie. 2004. A hacker manifesto. Harvard University Press.
Wiggins, Chris. 2022. How Data Happened. W. W. Norton & Company.
Wills, Matthew. 2023. “Data: Not Just Another Four-Letter Word”. https://daily.jstor.org/data-not-just-another-four-letter-word/.
Wooldridge, Michael. 2021. A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going. Flatiron Books.
Zubiri, Xavier. 1999. Sentient Intelligence. The Xavier Zubiri Foundation of North America.
———. 2011. Inteligência e Realidade. Editora É Realizações.
Zuboff, Shoshana. 2015. “Big other: surveillance capitalism and the prospects of an information civilization”. Journal of Information Technology 30: 75–89. https://doi.org/10.1057/jit.2015.5.

  1. Rosenberg (2013) pág. 18.↩︎

  2. Gitelman e Jackson (2013) pág. 8.↩︎

  3. Drucker (2011); Lavin (2021).↩︎

  4. Rosenberg (2018) pág. 558.↩︎

  5. Gitelman (2013) - Introdução.↩︎

  6. Shannon (1948) págs. 6-7; Shannon e Weaver (1963) págs. 42-44.↩︎

  7. Rhatto (2024b).↩︎

  8. (malatesta1897b?).↩︎

  9. Capurro (2022) págs. 104, 145.↩︎

  10. Capurro (2022) págs. 107-108.↩︎

  11. Capurro (2022) pág. 131.↩︎

  12. T. Silva (2022).↩︎