Sou professor de português no ensino médio e basicamente todos os meus alunos só sabem escrever com o chatgpt. Já estou lendo tanto texto de IA que já não sei como trabalhar escrita com os alunos ou se eles percebem que essa habilidade é importante para além do vestibular. Nesse ano a quantidade de alunos que me disseram que foram para o ENEM com textos-bases decorados para o dia da redação foi enorme. Muito decepcionante...
Na escola e no início da faculdade, eu era muito bom em português. Eu sinto que eu emburreci nos últimos anos, pois não estou sendo capaz de escrever sem o auxílio do Chat-GPT. Estou tendo que estudar novamente livros de gramática e de estilos de escrita.
Muito complicado uma prova que se pede uma forma de estruturar um texto de uma forma padrão. Ainda tem tempo de criticar a estrutura da prova repensar ela...
Isso não explica pq já podemos fazer essas coisas no PC e não ter problema algum. Nossas GPUs dedicadas já tem núcleos tensores que fazem muito mais que uma NPU engatinhando promete. Não há comprovação alguma que NPUs vão ser mais eficientes em termos de energia, pq elas estarão no mesmo die do processador, sujeitas inclusive aos problemas térmicos do pacote. A largura de banda das memórias das GPUs é muito maior do que a largura de banda que o processador tem acesso. Nem o cache da CPU podemos dizer é suficiente para dar conta da demanda da NPU. A intel tentou resolver isso colocando no mesmo pacote do processador RAM, mas isso trouxe dois problemas principais. Primeiro, matou qq possibilidade de expansibilidade de memória da máquina... essa parte eu não entendi, não era difícil o processador ainda poder usar memória externa. Talvez sejam os sistemas operacionais que não estejam prontos para isso. A segunda é o custo da solução. Já tivemos no passado soluções de IA com HBM mas a memória HBM não evolui suficientemente rápido para que seu maior custo justifique seu uso. Usar memória convencional com mais largura de banda e clock já torna o desempenho de memória HBM equivalente irrelevante. Para ser bastante franco, a parte mais pesada de uma IA é o treinamento original, em que uma massiva quantidade de dados é empregada para criar modelos mais genéricos... incluindo aqui a etapa de calibragem e auditoria (e censura). Uma vez que o modelo está pronto, retreinar ele com os dados do usuário é praticamente instantâneo, mesmo que não estejamos falando de prompt mas sim de treinamento mesmo. Uma CPU é mais que suficiente para isso e porque não aproveitar os núcleos tensores que já temos nas GPUs? Estão ali mesmo. Minha visão é que isso vai flopar e a Intel vai desistir, assim como ela já fez com o SGX, fez com AVX-512 (acho engraçado um pessoal chupa *ola de intel que ficava dizendo que AMD não tinha AVX-512 e que isso aumentava muito a performance, quando todo mundo usa GPU para a mesma tarefa com menos esforço e com mais performance... e agora a Intel dropou na nova geração).
SUGESTÃO: Pega alguem da á area de Machine Learning e pede avaliar treinamento e inferência com uso dessas NPUs. Acho que muita gente (professores e estudantes da área) está esperando testes assim pra comprar um computador novo! Não achei nada relevante do tipo.
Não é a npu o fator decisivo , mas o modelo que vai ser utilizado. Hoje , os modelos que dá para dizer que são usáveis tem pelo menos 35B de parâmetros , isso da na melhor das hipóteses 18GB de memória ram para rodar. O phi4 que tem 14B é muito bom, mas ainda é grande demais para ser usado em npu , e mesmo que consiga rodar , vai ser bem lento.
13:17 Há 30 anos ouvia que 'a tecnologia nos ajudaria a ter mais tempo livre e a fazer o que mais importava'. Hoje a tecnologia faz com que nossa vida profissional se estenda até nosso lar, portanto, com tanto tempo livre, o trabalho dobrou. Grato!
hoje e tudo I.A. usava um aplicativo de video q tinha filtro de ruido, e algumas coisas assim. agora atualizou e colocaram recussos i.a, e dentro tem a mesma coisa q fazia antes e offiline.
alguem sabe me dizer se vale a pena comprar o s23 para 2025 vivo em Portugal e custa uns 630 na versao de 8/128 que mais ou menos uns 4 mil reais ou economizo e vou para um a55 8/256 que custa 440 mas convertendo da uns 2800 mil reais
Tenho uma dúvida relacionada ao tema que pode até ser sem sentido mas quando uma IA funciona offline, todos os dados referentes ao treinamento (imagino que seja um grande volume de dados) estão nas NPU’s? Obrigado e desculpem a pergunta de um leigo
Os dados do treinamento sao usados apenas no treinamento da rede , disso é gerado um arquivo gigante de alguns gigas que são os "pesos" ... Esse arquivo é carregado do disco para a memória e depois para npu a medida que vai sendo gerada a resposta .
Eu vejo isso de maneira diferente… primeiro o chatgpt e incrivelmente bom para ensinar, porem a pessoa precisa estar disposta a usar ele para isso! Sem contar que potencializa a produtividade, porem vc precisa entender e ao mesmo tempo saber usar o chatgpt para potencializar isso! As NPU estao ai para fazer com que laptop portáteis com alta eficiência energética ajude a fazer isso localmente, pq nosso grande problema Hj na area de tecnologia e energia/bateria, um laptop com placa de video da nvidia alem de ser um trambolho pesado e barulhento, consome MUITA energia… ou seja laptop novo com NPU faz TOTAL SENTIDO!
Às vezes parece que as marcas estão apostando em algumas configurações que nem elas sabem se serão capazes de rodar as aplicações do futuro, ou mesmo se serão um desperdício… A bem da verdade, o universo IA ainda tem muito o que crescer, e muita coisa inútil - e muitos golpes - ainda vai surgir até o mercado atingir a maturidade.
IA atual é o papo do "é gamer" do passado Acredito que em 5/10 anos a IA será realmente relevante e usual, É como os Chips arm em notebooks a Apple domina e agora que alguns engenheiros foram para qualcomm vai começar uma competição (espero eu ) o futuro será IA e ARM.
Pelo que entendi as NPU tem a vantagem de processamento de instruções de IA com melhor eficiência energética, enquanto que as GPU chegam aos resultados através de força bruta, com a eficiência energética ficando em segundo plano
Exatamente isso. Em computação o consumo de energia e o poder de processamento não é algo linear. Se você reduz o poder de processamento pela metade o consumo de energia cai muito mais que pela metade , cai tipo um quarto.
Assistindo o video, parece o video da Apple falando do AI dela. Vai ser muito bom mas ainda não chegou. Será que a Apple lançou a nova tendendencia? Vai ter isso mas la para frente
Os TOPs disponibilizados nesses "AI PCs" são ridiculos, por exemplo uma RTX 4080 possuí quase 1000 TOPs, e já nao é suficiente pra muita coisa e consome uma baita energia. Se é no futuro então que espere ter NPUs de baixo consumo acima de 1000 TOPs pra usar de verdade um AI PC local
Sera que todo mundo vai ficar burro por causa da i.a? Ele nos desonera de saber muitas coisas. Ou sera que elas nos deixará mais inteligentes? pois teremos acesso a mais informações.
Mais burro não, pois vai remover a carga cognitiva de coisas como decorar a gramática , para interpretação do texto em si . Basta ver que antigamente se passava muito tempo aprendendo a fazer raíz quadrada na mão , a usar tabelas de logaritmos e outras coisas e hoje é só usar a calculadora . E essa falta de técnica não empobreceu a ciência. Aliás , no início do século, um estudante de astronomia aprendia uma quantidade absurda de cálculos astronômicos , até correção da refração da atmosfera .. hoje é um click no software e vem todas as coordenadas já computadas .
Esse assunto ainda vai longe em 2025, isso porque ainda precisamos ver se os blocos NPU se funcionam com eficiência em chips de arquitetura x86. Teoricamente o NPU funciona melhor em chips ARM, já que no Samsung S24ULTRA usa muita IA para as fotos com zoom de 10x , mas chips ARM estão engatinhando nos notebooks. Fora que a Intel fala no futuro, mas a Intel está tão mal das pernas que não dá pra saber se ainda vão fazer processadores para notebooks no futuro, kkkk
O canaltech é tão incrível que até no ano novo solta vídeo
Melhor canal de tecnologia ❤🤠
amanhã que é feriado. hoje não.
Você viu? Pode falar que a gente trabalha pra deixar tudo bonitinho pra vocês 💙
Sou professor de português no ensino médio e basicamente todos os meus alunos só sabem escrever com o chatgpt. Já estou lendo tanto texto de IA que já não sei como trabalhar escrita com os alunos ou se eles percebem que essa habilidade é importante para além do vestibular. Nesse ano a quantidade de alunos que me disseram que foram para o ENEM com textos-bases decorados para o dia da redação foi enorme. Muito decepcionante...
Que bom que eles são meus concorrentes 😂😂 meus pêsames!
A última geração que ainda consegue decorar.
Na escola e no início da faculdade, eu era muito bom em português. Eu sinto que eu emburreci nos últimos anos, pois não estou sendo capaz de escrever sem o auxílio do Chat-GPT.
Estou tendo que estudar novamente livros de gramática e de estilos de escrita.
Nossa, que complicado isso ):
Muito complicado uma prova que se pede uma forma de estruturar um texto de uma forma padrão. Ainda tem tempo de criticar a estrutura da prova repensar ela...
Isso não explica pq já podemos fazer essas coisas no PC e não ter problema algum.
Nossas GPUs dedicadas já tem núcleos tensores que fazem muito mais que uma NPU engatinhando promete.
Não há comprovação alguma que NPUs vão ser mais eficientes em termos de energia, pq elas estarão no mesmo die do processador, sujeitas inclusive aos problemas térmicos do pacote.
A largura de banda das memórias das GPUs é muito maior do que a largura de banda que o processador tem acesso. Nem o cache da CPU podemos dizer é suficiente para dar conta da demanda da NPU. A intel tentou resolver isso colocando no mesmo pacote do processador RAM, mas isso trouxe dois problemas principais. Primeiro, matou qq possibilidade de expansibilidade de memória da máquina... essa parte eu não entendi, não era difícil o processador ainda poder usar memória externa. Talvez sejam os sistemas operacionais que não estejam prontos para isso.
A segunda é o custo da solução. Já tivemos no passado soluções de IA com HBM mas a memória HBM não evolui suficientemente rápido para que seu maior custo justifique seu uso. Usar memória convencional com mais largura de banda e clock já torna o desempenho de memória HBM equivalente irrelevante.
Para ser bastante franco, a parte mais pesada de uma IA é o treinamento original, em que uma massiva quantidade de dados é empregada para criar modelos mais genéricos... incluindo aqui a etapa de calibragem e auditoria (e censura). Uma vez que o modelo está pronto, retreinar ele com os dados do usuário é praticamente instantâneo, mesmo que não estejamos falando de prompt mas sim de treinamento mesmo. Uma CPU é mais que suficiente para isso e porque não aproveitar os núcleos tensores que já temos nas GPUs? Estão ali mesmo.
Minha visão é que isso vai flopar e a Intel vai desistir, assim como ela já fez com o SGX, fez com AVX-512 (acho engraçado um pessoal chupa *ola de intel que ficava dizendo que AMD não tinha AVX-512 e que isso aumentava muito a performance, quando todo mundo usa GPU para a mesma tarefa com menos esforço e com mais performance... e agora a Intel dropou na nova geração).
SUGESTÃO: Pega alguem da á area de Machine Learning e pede avaliar treinamento e inferência com uso dessas NPUs. Acho que muita gente (professores e estudantes da área) está esperando testes assim pra comprar um computador novo! Não achei nada relevante do tipo.
Não é a npu o fator decisivo , mas o modelo que vai ser utilizado. Hoje , os modelos que dá para dizer que são usáveis tem pelo menos 35B de parâmetros , isso da na melhor das hipóteses 18GB de memória ram para rodar.
O phi4 que tem 14B é muito bom, mas ainda é grande demais para ser usado em npu , e mesmo que consiga rodar , vai ser bem lento.
13:17 Há 30 anos ouvia que 'a tecnologia nos ajudaria a ter mais tempo livre e a fazer o que mais importava'. Hoje a tecnologia faz com que nossa vida profissional se estenda até nosso lar, portanto, com tanto tempo livre, o trabalho dobrou. Grato!
NPU poderia ser um aparelho USB,só conectar e pronto. AI-USB
Mas aí eles não venderiam todo um novo pc Kkkkk
Não dá ... A grande limitação é a banda de memória , USB é muito lenta para ser usavel .
Última feira do ano vendo um vídeo do Pedro e soltando pérola logo no início, é pra fechar com chave de ouro do CanalTech. ❤
Aqui a gente traz informação e entretenimento. Pode falar! 💙
Feliz ano novo bora assistir o último vídeo do ano do Canaltech, melhor canal de tecnologia 🤠❤️
Feliz ano novo, Wesley! Espero que tenha curtido 💙
Não fiz essa recomendação do Adriano, mas deu certo, reassisti uns vídeos não tão recentes e o TH-cam já entendeu o recado
Boa, continua fazendo isso que dá bom. O algoritmo precisa entender que vocês querem receber as recomendações do CT 💙
eu concentrado no vídeo e o editor mete o burro no meio do vídeo me quebrou demais
Foi pra pegar de surpresa hahahahah 💙
hoje e tudo I.A. usava um aplicativo de video q tinha filtro de ruido, e algumas coisas assim.
agora atualizou e colocaram recussos i.a, e dentro tem a mesma coisa q fazia antes e offiline.
Hoje a IA tá muito presente nas tecnologias, é impressionante!
Cara eu queria mt as redes socais desse cara é tipo um pai
No Insta é @pedrocipolioficial 💙
Botaram o Jovem Idoso para trabalhar até no fim de ano.
Ai que você se engana! A gente já tinha o conteúdo prontinho pra deixar pra vocês 💙
Bom saber disso, porque fui fisgado igual peixe esfomeado, sem saber nada sobre.
Canal tech é bom demais
A gente quer o melhor pra vocês 💙
A Apple aprendeu direitinho e vendeu o iphone 16 prometendo muito e não entregou quase nada até então
alguem sabe me dizer se vale a pena comprar o s23 para 2025 vivo em Portugal e custa uns 630 na versao de 8/128 que mais ou menos uns 4 mil reais ou economizo e vou para um a55 8/256 que custa 440 mas convertendo da uns 2800 mil reais
S23 n vai ser arrepender, mais se pensar em economizar A55 8/256
Tururu
Feliz ano novo
Que venha 2025
Feliz ano novo, Guga! 💙
Tenho uma dúvida relacionada ao tema que pode até ser sem sentido mas quando uma IA funciona offline, todos os dados referentes ao treinamento (imagino que seja um grande volume de dados) estão nas NPU’s? Obrigado e desculpem a pergunta de um leigo
Os dados do treinamento sao usados apenas no treinamento da rede , disso é gerado um arquivo gigante de alguns gigas que são os "pesos" ... Esse arquivo é carregado do disco para a memória e depois para npu a medida que vai sendo gerada a resposta .
Gostaria de encontrar um canal com esse conteúdo de forma (muito mais objetiva). compactar em 4 min. esses 22 min. é um sonho de consumo.
Joga o link no chatgpt e pede um resumo.
Aprendizado nao pode ser encapsulado em pilulas, shorts e etc... 😅
Eu vejo isso de maneira diferente… primeiro o chatgpt e incrivelmente bom para ensinar, porem a pessoa precisa estar disposta a usar ele para isso! Sem contar que potencializa a produtividade, porem vc precisa entender e ao mesmo tempo saber usar o chatgpt para potencializar isso! As NPU estao ai para fazer com que laptop portáteis com alta eficiência energética ajude a fazer isso localmente, pq nosso grande problema
Hj na area de tecnologia e energia/bateria, um laptop com placa de video da nvidia alem de ser um trambolho pesado e barulhento, consome MUITA energia… ou seja laptop novo com NPU faz TOTAL SENTIDO!
Às vezes parece que as marcas estão apostando em algumas configurações que nem elas sabem se serão capazes de rodar as aplicações do futuro, ou mesmo se serão um desperdício… A bem da verdade, o universo IA ainda tem muito o que crescer, e muita coisa inútil - e muitos golpes - ainda vai surgir até o mercado atingir a maturidade.
IA atual é o papo do "é gamer" do passado
Acredito que em 5/10 anos a IA será realmente relevante e usual, É como os Chips arm em notebooks a Apple domina e agora que alguns engenheiros foram para qualcomm vai começar uma competição (espero eu ) o futuro será IA e ARM.
Sim é só hype igual naquela época que tudo era IA camera lembra kkk
Pelo que entendi as NPU tem a vantagem de processamento de instruções de IA com melhor eficiência energética, enquanto que as GPU chegam aos resultados através de força bruta, com a eficiência energética ficando em segundo plano
Exatamente isso. Em computação o consumo de energia e o poder de processamento não é algo linear. Se você reduz o poder de processamento pela metade o consumo de energia cai muito mais que pela metade , cai tipo um quarto.
Assistindo o video, parece o video da Apple falando do AI dela. Vai ser muito bom mas ainda não chegou. Será que a Apple lançou a nova tendendencia? Vai ter isso mas la para frente
Pedrão e ótimo pra explicar, lúdico!!!!kkkkkk
A adm ama as explicações dele hahahaha 💙
ótimo video
Acredito que na min há opinião só irá fazer sentido em alguns anos, a não ser que tenham novas e ótimas funções
Boa! 💙
Em suma: sim
Hype. Na minha opinião.
iPhone 11 ainda vale apena??
nao, pula para o 12 que vale sim
Não
Os TOPs disponibilizados nesses "AI PCs" são ridiculos, por exemplo uma RTX 4080 possuí quase 1000 TOPs, e já nao é suficiente pra muita coisa e consome uma baita energia. Se é no futuro então que espere ter NPUs de baixo consumo acima de 1000 TOPs pra usar de verdade um AI PC local
pague caro agora para ser (talvez) beta tester no futuro 😏
É uma mistura de modinha com serviço de utilidade pública.
Sera que todo mundo vai ficar burro por causa da i.a? Ele nos desonera de saber muitas coisas. Ou sera que elas nos deixará mais inteligentes? pois teremos acesso a mais informações.
Mais burro não, pois vai remover a carga cognitiva de coisas como decorar a gramática , para interpretação do texto em si .
Basta ver que antigamente se passava muito tempo aprendendo a fazer raíz quadrada na mão , a usar tabelas de logaritmos e outras coisas e hoje é só usar a calculadora . E essa falta de técnica não empobreceu a ciência.
Aliás , no início do século, um estudante de astronomia aprendia uma quantidade absurda de cálculos astronômicos , até correção da refração da atmosfera .. hoje é um click no software e vem todas as coordenadas já computadas .
Eu admiti o AI PC, admito.
Esse assunto ainda vai longe em 2025, isso porque ainda precisamos ver se os blocos NPU se funcionam com eficiência em chips de arquitetura x86. Teoricamente o NPU funciona melhor em chips ARM, já que no Samsung S24ULTRA usa muita IA para as fotos com zoom de 10x , mas chips ARM estão engatinhando nos notebooks. Fora que a Intel fala no futuro, mas a Intel está tão mal das pernas que não dá pra saber se ainda vão fazer processadores para notebooks no futuro, kkkk
Prefiro uma boa máquina de lavar
Muito barulho por nada.
Primeiro
Melhor vídeo do último dia de 2024 ❤
Oba, a adm fica feliz demais que você gostou 💙