Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - Wangarad

Stran: 1 ... 14 15 [16] 17 18 ... 25
226
Vývoj / Python vyhladavanie na google s kliknutim
« kdy: 17. 10. 2020, 10:08:08 »
Zdravim.
Tak mam pred sebou dalsi "projekt". Rozmyslam resp. rad by som dostal rady a tipy ako spravit vyhladavanie na google skrz python. Je mi jasne ako zadat request ale nenapada ma ako automaticky otvorit link ktory chcem s vysledku. Riesil to niekto? P.S. nejde o ziadne blackseo je to cisto len zvedavost.

227
IDontCare: dik moc to som uz "dal". S nieakeho dovodu mi to nechcelo bezat ako si pisal ty a musel som to trosku zmenit.
Kazdopadne zapis do suboru nefunguje dobre ale to poriesim trosku neskorsie. (navsteva)
Medzi casom by ma zaujimalo ako by sa to dalo riesit efektivnejsie. Rozmyslam nad tym pridavat to do pola a to potom naraz zapisat ale chcel by som vediet ako by k tomu pristupoval niekto iny.

228
A posledna verzia ktora mi nechce zapisovat do file na novy riadok vyzera asi takto
Kód: [Vybrat]
# importing the libraries
from bs4 import BeautifulSoup
import requests
import os.path
directory = 'C:/My Web Sites/complette/output/'
filename = "vystup.txt"
file_path = os.path.join(directory, filename)
print (file_path)

from bs4 import BeautifulSoup
   
for path, dirs, files in os.walk(r"C:/My Web Sites/complette/"):
    for f in files:
        html_files = os.path.join(path, f)
        print(html_files)
       
        # Parse the html content
        soup = BeautifulSoup(open(html_files, encoding="utf-8"), "lxml")
        for link in soup.select('a[href^=mailto]'):
            print("Inner Text: {}".format(link.text))
            f = open(file_path, "w")
            f.write(format(link.text)+"\n")
       
   
           

229
a tu som narazil na problem pretoze pre beautifulsoap nemoze byt cesta C:\\nieco ale musi zacinat http:

230
Ok takze to co potrebujem okolo extrakcie mailu som doriesil takto

Kód: [Vybrat]
 # importing the libraries
from bs4 import BeautifulSoup
import requests
import os.path
directory = 'C:/xxx/output/'
filename = "vystup.txt"
file_path = os.path.join(directory, filename)
print (file_path)
url="xxx/firma-kontakt-cinnost.html"

# Make a GET request to fetch the raw HTML content
html_content = requests.get(url).text

# Parse the html content
soup = BeautifulSoup(html_content, "lxml")
for link in soup.select('a[href^=mailto]'):
    print("Inner Text: {}".format(link.text))
    f = open(file_path, "w")
    f.write(format(link.text)+"\n")
    f.close()

Ostava mi posledny task a sice ako zistit vsetky subory v zlozke a spracovat ich.

IDontCare: shell nemam bohuzial takze to musism skrz python. Ale dakujem ked som pisal toto tak si akurat napisal ty.

231
Aby to nebolo ze som nic neskusal a len cakam na odpoved.
Skusal som to riesit jednoducho.
Kód: [Vybrat]
# importing the libraries
from bs4 import BeautifulSoup
import requests

url="xxx/firma-kontakt-cinnost.html"

# Make a GET request to fetch the raw HTML content
html_content = requests.get(url).text

# Parse the html content
soup = BeautifulSoup(html_content, "lxml")
for link in soup.find_all('a[href^=mailto]'):
    print("Inner Text: {}".format(link.text))
    print("Title: {}".format(link.get("title")))
    print("href: {}".format(link.get("href")))
co mi nevracia vobec nic
ak zmenim for link in soup.find_all('a'):
take mam zasa vsetky linky. Ak na to nepridem take budem musit potom este prefiltrovat len odkazy kde je @ ale to mi nepride ako elegantne riesenie.

232
Vývoj / Python Beautiful Soup: extrakce adresy z HTML stránky
« kdy: 16. 10. 2020, 08:05:20 »
Zdravim.

Potreboval by som trosku pomoct. Snazim sa pomocov pythonu a beautifulsoup vyextraktovat vsetky odkazy s HTML stranok ktore mam offline v subore. Mame databazu kientov ale vsetko su to "generovane" staticke HTML stranky a potrebujem to ponahadzovat do DB.
Mam 2 problemy:
  • ako vyextraktovat len <a href="mailto:
  • a druhu ako vyhladat vsetky subory v zlozke. Teda v zlozke files je cca 5000 stranok a nenapadlo ma ako ich prechadzat jednu po druhej.

Dik za radu

233
Server / Re:Porovnanie SQL databaz
« kdy: 18. 09. 2020, 14:22:28 »
Tam je problem v tom ze existuje backup a potom aktualna verzia v ktorej niekto spravil "zmeny" nie je zname ci v nastaveniach, indexoch, klucoch, whatever a ide o to najst vsetky zmeny voci backupu. Struktura by mala byt rovnaka ale ide o to zistit co presne sa zmenilo. Mne to vychadza tak ze naimportovat obe verzie a priste to porovnavat preto ta otazka ci ma niekto skusenost s toolsom ktory by toto vedel poriesit a nemusel by som manualne prechadzat 2 DB.

234
Server / Porovnanie SQL databaz
« kdy: 18. 09. 2020, 10:16:03 »
Mam otazku ako porovnat 2 sql databazy (s backupu )a vyexportovat vsetky rozdiely? Hlavne nastavenia, indexy. Existuje nieaky jednoduchy tools?

235
Sítě / Re:Samovolné odpojení od Wi-Fi
« kdy: 20. 07. 2020, 09:55:16 »
Tak som nasiel take 50% riesenie. Na Archery som nastavil iny IP rozsah a ide to ako oci. Co je pravou pricinou mi ostava zahadou ale uz to funguje. Dakujem sam sebe za riesenie  ;D ;D ;D

236
Sítě / Re:Samovolné odpojení od Wi-Fi
« kdy: 20. 07. 2020, 08:23:19 »
teraz som zbadal ze mam IPv6 moze to mat suvis? Aj teraz aktualne root.cz ide ako oci, wiki tiez, google tiez ale napriklad sme.sk nie. Fakt nikto ani tuk?

237
Sítě / Re:Samovolne odpojenie od wifi
« kdy: 19. 07. 2020, 20:03:13 »
Este som zabudol ze net je od Orangu a pred mojim archerom je zyxel vmg1312 od orangeu s tym ze wifi je odpojena a len kablik do mojho archera.

238
Sítě / Samovolné odpojení od Wi-Fi
« kdy: 19. 07. 2020, 20:01:31 »
Zdravim az mi je trapne sa spytat ale neviem najst odpoved.

Windows 10 sa mi sam od seba odpaja od wifi resp. vyzra byt online ale internet nejde. Resp. ak funguje niektore stranky zobrazuje niektore rovno timeout. Problemom je ze je to od doby ked som prisiel s Holandska na Slovensko. V holandsku mi to fungovalo ako oci a len som prisiel domov odpojil stary router a pripojil svoj. Vsetko ostalo ako je. Hesla, nazvy siete. Mobil, tablet, druhe PC funguje bez problemu ale pracovne PC nie.

Ako router mam Archer AC 1200 dalej po dome je este par xiaomi mi wifi repeaterov ale tento PC je v dosahu archera. Pouzival som DWA-171 usb wifi a bez problemu. Najprv som si myslel ze je nieco s tym DWA pretoze sa to "samovolne odpojovalo" skusil som ine USB porty a vysledok je rovnaky. Vsetky prikazy so skupiny arp-d, ipconfig/renew atd som poskusal ale bez efektu. Tak som dnes kupil tp-link Archer t4u AC1300 a vysledok je presne rovnaky. Chvilku ide, chvilku nie a ani restart/ reset zmena portu nepomaha. Prioji sa, tvari sa ze je online ale nejde net, resp. niektore stranky ano a niektore nie. Aj root mi obcas nacita a obcas nie. Nemam ani len tucha preco sa to deje a preco prave na tomto jedinom PC. Vedel by niekto poradit?

Este detail je jedno ci sa pripajam na 2.5 alebo 5Ghz (AC 1200 podporuje obe)

239
Dobry den.

potrebujem trosku posunut alebo nakopnut. Idea je taka ze by som chcel obraz s webkamery najprv upravit a az potom nasledne poslat "dalej". Teda napriklad MS Teams, Whatsapp a ine , by zobrazovalo uz spracovany obraz. Pruser je v tom ze vobec netusim ako na to. Vytvorit "virtualnu webkameru", "vyhackovat driver"?? Vazne netusim ako na to ale musi to ist jednoducho. Urcite nie som prvy kto to chce riesit. Primarne sa jedna o Windows a jazyk Python.

Dakujem za vsetky rady, tipy, postrehy.

240
Vývoj / Re:AI a poker
« kdy: 25. 06. 2020, 13:15:49 »
A co takto skusit google? Poker AI a hned mas kopec info. Hned prvy github
https://github.com/fedden/poker_ai

Stran: 1 ... 14 15 [16] 17 18 ... 25