040 Systemd e Microsoft ama o Linux

opencast-40-systemd-microsoft-ama-linux

Opencast novo no ar. Agora em definitivo e exclusivamente no site Tecnologia Aberta e com periodicidade semanal, falhamos a última semana por que, sabem como são as conexões de internet nos hotéis brasileiros né?

Neste episódio Ivan, Diego e Og falaram um pouco sobre os acontecimentos dos últimos dias do mundo do software livre começando pela sugestão de o Ubuntu não ter mais versões 32 bits após a versão 16.04, passando pela polêmica do Systemd até chegar ao curioso fato de a Microsoft declarar seu amor ao Linux.

Se você é do Rio Grande do Sul ou Santa Catarina e precisa de serviços de cabeamento estruturado, câmeras de segurança dentro do padrão de cabeamento estruturado, nobreaks(venda e manutenção), som ambiente, equipamentos de informática de padrão corporativo ou ainda consultoria na área de T.I., não deixe de entrar em contato com nosso patrocinador Dataware pelo telefone (54) 3712 0177.

Links do episódio

Twitter: @tecnologiaabert

Facebook: http://www.facebook.com/tecnologiaaberta

Google+: Tecnologia Aberta

Youtube: Tecnologia Aberta

E-Mail: opencast@tecnologiaaberta.com.br

Feed do Opencast: http://tecnologiaaberta.com.br/feed/opencast/

iTunes: http://itunes.apple.com/br/podcast/id424732898

Créditos das músicas usadas neste programa:
Josh Woodward

Opencast , , , , , , , , , , , , , , , , 06/11/2014 23:05 21 Comentários

21 Comentários

  1. Ivan disse:

    quem comprou o Qt foi a nokia e vendido para a digia. Mas não sei a relação da digia com o kde

  2. Dalmo disse:

    Gostei muito do Opencast #40!

    Sou usuário do KDE no Arch Linux e gostaria de falar mais sobre ele:

    * O termo KDE define equipe e/ou comunidade que desenvolve a interface gráfica e os software, também é usado para definir a suíte de aplicativos + interface gráfica.

    * Plasma se refere ao desktop em si (interface gráfica)

    * Outros programas como por exemplo o editor Kate são desenvolvidos pela equipe do KDE.

    Se fôssemos comparar: o Gnome Shell (Plasma) é uma interface gráfica feita pela equipe do Gnome (KDE), que também produz o Gedit (Kate).

  3. Marcos disse:

    Sobre o LibreOffice, somente o Windows ainda não tem suporte a 64 bits. Linux suporta 32 e 64 e atualmente os binarios do Mac OSX são disponibilizados somente em 64 bits.

    Just my 2 cents.

  4. antonio carlos disse:

    Em 2012, antes do lançamento da versão 12.10 do k-ubuntu, a canonical encerrou o apoio financeiro a Jonathan Riddell, desenvolvedor da distro, devido a aspectos puramente comerciais, ou seja, o k-ubuntu era comunitária e não vendia. E então ela concentrou-se no unity: “Kubuntu has not been a business success after seven years of trying, and it is unrealistic to expect it to continue to have financial resources put into it.” (informações adicionais: http://va.mu/AiWJV).

    Mas o desamparo da distro não durou muito, pois J. Riddell foi apadrinhado pela Blue System, empresa alemã de TI que desenvolve o netrunner (informações adicionais: http://va.mu/AiWSQ, http://va.mu/AiWTd e http://va.mu/AiWUe), entre outros projetos ligados ao KDE.

    Mas não sei como eles ganham dinheiro com o k-ubuntu nem como pagam as contas no final do mês!

  5. Erick Campos disse:

    Ei Ubuntero, bom ver o opencast de volta a ativa. Acha que a regularidade vai ser qual agora? Outra coisa, tenho uma sugestão de tema: O uso de open source e pirataria em orgãos publicos brasileiros.

    • Obrigado pela sugestão Erick.
      Tema complicado. Seria difícil conseguir informação confirmada sobre software pirata em órgãos públicos. A parte do open source já é mais fácil.

  6. Erick Campos disse:

    Acabei de ver que no inicio do programa já tinha a resposta pra periodicidade. Mas a sugestão para o tema permanece.

  7. Rubem Luiz disse:

    Ola. Parabens pelo programa. Se não dá pra ter ubuntero + para de buteco + castalio, chamem mais gente tipo o Og, Aprigio ou o Augusto Campos.

    Sobre processadores somente 32 bits, acho que é de 2011 o último Atom ou Celeron ULV 32 bits, mas… muitos notebooks e desktop a venda HOJE tem ou processadores dessa época, ou mais comunmente CHIPSETS antiquados que não permitem S.O. 64b. Parece piada mas está cheio de notebooks baratos da STI, Philco, ou mesmo Samsung ou LG, que devido a algum chipset antiquado não rodam S.O. 64b, não há impedimento explícito declarado, mas você tem todo tipo de kernel panic’s e telas azuis se não usar S.O. x86 (Quase todo notebook com Atom N2500 tem esse problema, o processador é 64b, mas o chipset não, então só S.O. x86 roda no fim das contas).

    Sobre a velocidade mínima de internet no brasil, o plano de ir aumentando a média mínima não é recente, em 2014 chegou a 80% mas começou em 2012, vide:
    http://www.anatel.gov.br/Portal/exibirPortalNoticias.do?acao=carregaNoticia&codigo=31402
    Tem que ver que esse mínimo de 80% diz respeito a média. O “mínimo” é 40%, você pode medir todo dia as 15h e ter 41% que estará legalmente tudo certo, desde que a operadora “compense” com 100% em testes em outros horários (É o que acontece, de madrugada ninguém usa, de tarde ou começo da noite todo mundo usa).
    Esse problema de falta de banda, falta de hospedagens e altas latencias se explica pelos motivos que você comentaram: Os equipamentos aqui são mais caros, a carga tributária é maior, e estamos distantes das grandes hospedagens nos EUA, de modo que as redes interestaduais de fibra atendem praticamente só empresas pequenas ou médias e clientes domesticos, e atender 1000 clientes de 1Mbps cada dá bem mais trabalho (Suporte e vendas!) do que atender a um grande data-center de 10Gbps.
    E os preços no brasil nem sempre são um terror perto de preços nos EUA, estou a 1000Km da capital mais proxima, no meio de MT, num raio de uns 500Km deve ter uns 100 mil habitantes, e pago R$ 115 por 2Mbps. Uma amiga mora em Kansas City e paga US$ 49 pelos mesmo 2Mbps. Ué, mas Kansas City não tem GoogleFiber? Tem, no centro tem, na periferia só via radio, uma CPE Wimax de US$ 99 (Aqui uma CPE pra via radio cuta R$ 200-250, mesmo preço) e planos tipo US$ 29 por 1Mbps, 49 por 2Mbps, e 59 por 3Mbps, a diferença é que tenho upload ridículo de 400Kbps, e lá tem 1 a 1,5Mbps de upload. Mas mesmo que eu tivesse 2Mbps de upload não teria conexão tão boa, afinal levo 200mS só pra chegar até um cabo submarino pra sair do brasil, e mais uns 100ms entre cabo submarino e trajeto em terra nos EUA e Canada pra chegar até o servidor em Vancouver que respondeu no meu tracert pelo tecnologiaaberta.com.br

    Sobre as operadoras investirem em redes distantes pra ganhar mais dinheiro, isso é o que afasta muita empresa estrangeira. Ó um exemplo: Leilão de 4G a uns anos: Quem ganhasse concessão teria que, como contrapartida, instalar rede 4G em todas as capitais da copa ainda em 2013, e teria que ofertar internet rapida em escolas rurais. A Tim ganhou uma concessão, mas como contrapartida ela foi obrigada a aumentar a banda da cidade de Manaus, que não tinha ligação decente via fibra com o resto do mundo. A TIM, que não atua com redes por lá, foi obrigada a fazer uma rede de Manaus até o Pará pra simplesmente ter banda suficiente pras torres 4G de Manaus! A operadora de internet fixa de lá é a OI, que não tem condições financeiras de fazer rede desse tamanho (Até vendeu cabo submarino esse ano por dificuldades financeiras) então a OI nem entrou no leilão de 4G!

    No brasil tem muito disso, não é interessante financeiramente atender uns fins de mundo por isso se não for por força de lei (Quer vender isso em SP? Só se vender aquilo no meio do Acre) as operadoras não cobririam todo o país. Esse tipo de coisa não ocorre noutros países, existem mais empresas grandes de telecom em outros países porque a instalação de novas redes é livre, sem licitações caríssimas como ocorrem no brasil. Então eu digo que boa parte do atraso no brasil é por motivação política e devido a demanda criada pelos consumidores em locais distantes, Manaus mal tinha ADSL de 1Mbps pra toda a cidade, só por causa da copa de futebol no centro tem 2 ou 3 torres 4G (E perto delas sempre teve ADSL a disposição) mas de qualquer forma na periferia ainda não tem nem 3G e nem conexão fixa disponível, só muda a vitrine nos grandes centros mas o resto do país inveja as vitrines e compra pacotes inusáveis tipo pacote 3G com franquia de 30MB, que além de inusáveis por parte do usuairo não são nada lucrativos pra operadoras (Tipo ligações a 1 centavo, nenhuma operadora vive com isso! É só chamariz pra bobos).

    Eu estou fechado meu pequeno provedor por falta de link na região (Gastaria meio milhão de Reais pra montar uma rede pra buscar conexão distante, investimento que se pagaria em 10 ou 15 anos. Mas em 10 anos a rede estaria atrasada demais e precisaria upgrade caro), meus 200 clientes vão ficar sem opções, mas eu achava absurdo vender por R$ 50 plano de 512Kbps, caro e lerdo, mas ainda assim tinha mais demanda que podia atender, e tinha mais prejuízo que podia bancar, enfim, negócio ruim pros 2 lados, cliente tem conexão lerda e provedor tem prejuízo ao invez de lucro. A OI que tem dinheiro poderia aumentar a rede dela pra melhorar isso? Poderia, e desde 2012 ela tem aumentado todo ano, mas ela aumenta 50% a capacidade porém surgem 60% a mais de demanda (Tablets, notebooks, smartphones, vendem aos montes), infelizmente é uma demanda com usuarios pobres, que não podem pagar R$ 120 por 2Mbps, querem planos de R$ 20 a 50, que são os planos ruins pros 2 lados, que são lerdos pro usuario e não-lucrativos pras operadoras. Conforme o país for enriquecendo os consumidores toparão pagar mais por planos mínimos, mas hoje metade de quem conheço usa planos moveis de R$ 15.mes (R$ 0,50 por dia), isso não dá lucro pra operadora, aí o jeito é as operadoras irem se fundindo pra diminuir a concorrência, porque o consumidor e a legislação tem empurrado as operadoras pra esse lado (A GVT foi vendida porque a Vivendi europei não conseguia fazer ela crescer muito, num ano o lucro diminui 25%, no outro cresceu só 15%, é uma gangorra que afasta investidores, ter retorno em 10 anos seria aceitavel se o retorno fosse garantido, mas tem tantos ‘poréns’ na telecom brasileira que pouca gente é doida de entrar. Por exemplo, temos pouquíssimos pontos-de-troca-de-trafego, pontos em que a rede de varios operadores, hospedagens e provedores se encontra, nem tem 1 por estádo, acho que são 25 no brasil todo, e alguns desses pontos não unem redes das grandes operadoras. Dependendo da operadora usada pra alguém ir de Erechim a Santa Maria corre o risco de não passar pelo PTT de POA, se a operadora não participar desse PTT sua conexão pode ir até o PTT de Curitiba, Londrina ou Campinas pra só então voltar pro RS e ir pra Santa Maria. Todo estado tem essas rotas absurdas, não basta você fazer uma grande rede no meio do país, você tem que conectar elas nos grandes PTT’s (Quem ficam em SP ou Brasilia), e isso obriga qualquer grande rede a ter milhares de Km, e com meio milhar de Km’s você atravessa a Coreia do Sul, no Brasil precisaria 10x mais atravessar o país, se na Coreia uma rede dessa leva 10 anos pra se pagar (Com alta densidade populacional) no brasil duvido que se pague em 100 anos.

  8. Falcão disse:

    Olá a Todos,

    Sou de São Paulo, tenho 46 anos e trabalho com Automação Industrial. Me tornei um entusiasta de Linux a cerca de 2 anos e meio começando com Ubuntu e migrando posteriormente para Mint mas estou aberto a experimentar distribuições diferentes. Preciso confessar que não acreditei que o Linux um dia pudesse se tornar o que veio a ser, graças a pessoas e empresas incríveis.

    Acabo de descobrir o Opencast e “gostei de cara”. Gosto do formato, duração, edição e sei que problemas menores captação de áudio já estão sendo corrigidos. O conteúdo é variado e pela primeira vez me aprofundo um pouco mais na filosofia do Software Livre com o qual tenho contribuído apenas financeiramente e de forma modesta. Ainda estou na maratona, então, misturo os assuntos dos casts e portanto não farei o comentário específico do episódio. Agradeço a iniciativa e vou incluir o Opencast na minha lista de contribuições!

    Um abraço a todos.

  9. Stauffen disse:

    O problema do systemd não é o systemd em si mas o fato de ele estar “engordando” e engolindo projetos e tornando-se cada vez mais insubstituível. No caso do Debian que possui um compromisso com a comunidade de preservar a liberdade e respeito ao usuário o sytemd é contra a sua filosofia na forma clássica que se apresenta. Por isso Ian Jackson propôs isto e já está aprovado ir pra votação:

    “Este GR procura preservar a liberdade de nossos usuários agora para selecionar um sistema de inicialização de sua escolha e a liberdade do projeto para selecionar um sistema de inicialização diferente no futuro. Ele vai evitar Debian tornando acidentalmente preso a um sistema de inicialização em particular (por exemplo, porque muito software não relacionado acabou dependendo de um sistema de inicialização especial, que a carga de esforço necessário para mudar o sistema de inicialização se torna grande demais). Uma série de sistemas de inicialização existe, e é claro que ainda não há um amplo consenso quanto ao que o melhor sistema de inicialização pode parecer.”

    Vocês mencionaram o caso do icewisel. Se você não gosta dele é muito fácil instalar o Firefox mas no caso do systemd, substituí-lo é cada vez mais difícil e chegará o dia que isso praticamente será impossível.

    Particularmente, vejo algo de muito estranho em tudo isso. Por baixo dos panos o systemd é um projeto da Hed Hat (é ela que paga os salários da parte mais importante do projeto embora os fãs-boy do systemd neguem isso a todo custo) e essa tem como clientes o militares americanos. Com isso não podemos negar uma ligação entre a Red Hat e a NSA. A NSA, pelo que se sabe, provoca bugs propositais, através de desenvolvedores contratados, para abrir uma backdoor. ( http://igurublog.wordpress.com/2014/04/08/julian-assange-debian-is-owned-by-the-nsa/ ) Programas complexos são mais fáceis para eles fazerem isso e o systemd é isso e muito mais. São vários fatos intrigantes.

    • Olá Stauffen!

      Muito obrigado pela contribuição, acredito que essa discussão ainda não terminou nem entre nós do Opencast.

    • Berlim disse:

      Acho que o Stauffen colocou bem a situação do systemd no debian. A princípio não vi grandes problemas dele estar como padrão no atual Debian Testing (jessie) mas o fato dele se tornar um padrão quando este se tornar stable é um pouco assustador pelo meio como o systemd faz as coisas. No desktop, a princípio não vejo grandes problemas, pois ele realmente acelera muito o boot e o shutdown (pelo menos em minha limitada experiência). Mas no caso de servidores, acho meio problemático seus logs estarem em formato binário quando você precisar salvar um sistema parado com um livecd ou algo do gênero, por exemplo. No momento realmente é possível mudar de volta para o init ou até para o upstart, mas no futuro isso pode ser mais complicado por conta de sistemas que se tornem dependentes do systemd. O pessoal do Piratas da Internet fez um podcast sobre o assunto, e apesar de não esgota-lo, apresenta um bom panorama sobre o mesmo.
      No mais, parabéns pelo episódio e pelo áudio cada vez melhor dos participantes. Agora dá até pra entender linhas de raciocínio inteiras 🙂

  10. Tarcisio disse:

    Pessoal,gostei do podcast. Parabéns pelo bom trabalho.
    Quero fazer só um comentário sobre PowerShell.

    PowerShell não é um shell do Linux metido a best. E muito menos limitado.
    PowerShell é um shell que suporta tudo que tem na plataforma .Net
    Agora rodando no Linux vai suportar tudo que os desenvolvedores faziam antes no Windows, vai dar suporte para fazer o mesmo no Linux. Programação com .Net, banco dados ….e o melhor poderemos ter um script hibrido…funcionando nas duas plataformas.

    • tecnolog disse:

      Obrigado Tarcisio,

      Acho que antes vamos ter um episódio sobre o shell, depois viria do powershell. Mas está anotada a proposta de episódio.

Deixe seu comentário

Website