Olá Ton, tudo bem? Espero que sim!
Você pode tentar utilizar um pacote chamado ffbase, basta instalá-lo e utilizar a função save.ffdf, vou deixar aqui a documentação: https://www.rdocumentation.org/packages/ffbase/versions/0.13.3/topics/save.ffdf
Após isso, nas próximas vezes que for utilizar, você não precisará carregar da maneira convencional a base de dados, somente usar a função load.ffdf do mesmo pacote ffbase.
Lembrando que o R vai utilizar a sua memória RAM para armazenar as variáveis e conjuntos de dados.
Para conjuntos de dados maiores que a sua memória RAM, recomendo utilizar um banco de dados por exemplo, onde você não necessariamente precisa fazer através de queries, uma vez que há pacotes para fazer a sincronia entre bancos de dados entre o R e você realizar os comandos através do R.
Nesse curso: https://cursos.alura.com.br/course/io-em-r é mostrado uma maneira de conectar bancos de dados ao R.
Se ainda assim for trabalhar com conjuntos de dados ainda maiores, sugiro ver ferramentas de computação em nuvem, como a Amazon AWS. Big Data trabalha com conjuntos de dados que extrapolam os limites de uma única máquina conseguir trabalhar, por isso você vai conseguir rodar os seus comandos no R através de um cluster de computadores, serviços que são oferecidos por empresas como Amazon AWS, Azure, entre outros.
Mas sugiro que continue os cursos para que eles te deem uma boa base para realizar o que deseja fazer com as bases de dados. Você também pode procurar cursos de Python na plataforma também, mas ele irá fazer praticamente a mesma coisa que o R consegue fazer. E precisará dessas outras ferramentas caso queira trabalhar com grandes conjuntos de dados da mesma maneira.
Qualquer dúvida estou à disposição.